Recientemente, el mundo de la ciencia se conmocionó ante el anunció de los premios Nobel de Física y Química, otorgados por la Real Academia de las Ciencias de Suecia, a investigaciones donde la Inteligencia Artificial (IA) es protagonista. Este suceso desató una fuerte polémica entre las y los investigadores en cuanto al merecimiento del premio en dichas áreas, su relevancia y el futuro de las investigaciones científicas.
El Dr. Juan Gabriel Segovia Hernández, investigador en nivel III del Sistema Nacional de Investigadoras e Investigadores (SNII) y profesor del Departamento de Ingeniería Química de la Universidad de Guanajuato (UG), comentó que tal revuelo, en gran parte, se debe a que los últimos premios habían correspondido a teorías sobre el comportamiento del átomo, cosmología y cuestiones teóricas o de experimentación habituales entre el gremio científico.
Como contexto, es necesario puntualizar que John Hopfield y Geoffrey Hinton, profesores de la Universidad de Princeton y la Universidad de Toronto respectivamente, fueron reconocidos con el Nobel de Física por descubrimientos e invenciones desde 1982 en cuanto a conceptos y métodos de esta ciencia, que actualmente fundamentan el aprendizaje automático con redes neuronales artificiales. Sus aportaciones están presentes en estructuras utilizadas a diario que permiten a las computadoras imitar funciones humanas, como la memoria, cuyos ejemplos más populares podrían ser el Chat GPT o Alexa.
En cuanto al Nobel de Química, el británico Demis Hassabis y el estadounidense John Jumper fueron galardonados por la predicción de la estructura de las proteínas mediante el uso de inteligencia artificial, al mismo tiempo que David Baker, también estadounidense, por el diseño de proteínas con computación. Cabe mencionar que el trabajo de este último ha contado con la colaboración durante diez años del científico mexicano Daniel Silva.
Para el Dr. Segovia, este caso brinda la oportunidad de replantear la aplicación de la IA en las ciencias, revalorizar sus beneficios en el desarrollo tecnológico y debatir sus límites e implicaciones éticas, además de fortalecer los vínculos interdisciplinarios, particularmente en el ámbito de la Química.
“El mayor conflicto es que en los últimos tiempos hemos visto a la IA como algo malo. La controversia surge por la interrogante ‘cómo otorgar un premio de tal relevancia ante algo que aún no sabemos si es bueno o malo’, si es un reconocimiento prematuro”, comentó.
Segovia comparó este fenómeno social con el desarrollo de la calculadora electrónica a lo largo de la segunda mitad del siglo XX, que despertó un “miedo a dejar de pensar” y el reemplazo del ser humano por las máquinas, como en la Revolución industrial, aunque la intención de su invención fue crear una herramienta auxiliar.
“Estamos en la transición para entender que la IA puede facilitar el trabajo y la vida si se usa con ética”, señaló sin descartar sus riesgos. “Es un avance muy sustancial por su capacidad para tomar decisiones y realizar acciones, generar cosas nuevas a partir de datos, pensar y aprender. ¿Y si deciden ser autónomas?, ¿Qué va a pasar?, ¿Hasta dónde podemos tener el control?, son preguntas inherentes”.
Al respecto, refirió la renuncia de Hinton a su puesto como asesor de Google en 2023, quien, con una actitud similar al efecto Oppenheimer ante el diseño de la bomba atómica, alertó sobre los riesgos del rápido desarrollo de la IA.
Sin embargo, a partir de los buenos resultados que ya se han obtenido en el ámbito de la Medicina y la Química, estos avances podrían ayudar a resolver problemas en un lapso muy breve que tomarían décadas con procedimientos de laboratorio tradicionales, siempre y cuando se sigan estrictamente los protocolos de prueba para validar sus efectos. Por ejemplo, realizar diagnósticos precisos; predecir, diseñar y sintetizar moléculas para crear fármacos contra alguna enfermedad grave, o ante una pandemia; generar productos que atiendan problemáticas alimentarias o sobre el cambio climático.
“¿Por qué nos asustamos con el Chat GPT y no con Alexa en nuestra interacción cotidiana? Porque este crea productos, aunque aquella igualmente da respuestas”, señaló atribuyendo esto al temor antropocéntrico de que algo sea más inteligente que el ser humano, evidente en numerosas obras de cine y ficción.
El investigador destacó la importancia de recordar que la IA fue creada por seres humanos y que puede ser excelente para mejorar la calidad de vida de personas con discapacidad o en casas inteligentes cuidando el gasto energético.
En cuanto a su aplicación en la docencia e investigación, Segura observa necesario revalorar sus beneficios y capacitarse sobre estrategias que haga más eficientes los procesos científicos y de enseñanza-aprendizaje. “Un asistente que me ayude a crear borradores o esbozos sobre los que yo voy a trabajar con mi propio conocimiento para revisar y validar, yo analizaría los resultados, por lo tanto, yo sería el autor, sería mi trabajo intelectual; el problema es dejar todo a la herramienta y confiar plenamente en ella sin verificar”, planteó.
Desde la perspectiva del investigador, estos dos premios Nobel indican que no hay marcha atrás, por lo que es imperativo comenzar a debatir sus alcances y delimitar sus reglas de aplicación. También analizar los escenarios donde la automatización, que obedece estrictamente reglamentos, no considere aspectos de empatía o solidaridad humana pues escapen de su funcionamiento, además de las dinámicas laborales en la industria para asegurar y promover los empleos.

Te puede interesar