Inteligencia artificial abre conflicto laboral en Google

Escribe: Oriana Rivas*

“Pensaría que es un niño de 7 u 8 años que sabe Física”, dijo el ingeniero suspendido de Google.

Blake Lemoine estudió un programa conocido LaMDA y por medio de conversaciones logró que el sistema hablara de sus temores. Esto hace resurgir las dudas sobre los límites de grandes compañías que anteriormente han defendido intereses políticos e ideológicos.

A Blake Lemoine, un ingeniero de Google, lo suspendieron hace pocos días de su cargo. El motivo fue que reveló las conversaciones que mantuvo con LaMDA (modelo de lenguaje para aplicaciones de diálogo). Un programa de inteligencia artificial (AI) que en esas charlas tocó temas como sus derechos, así como también expresó sensibilidad y miedos, según el experto.

El programa le describió al ingeniero su temor a la muerte. Tales hallazgos quedaron plasmados en el documento llamado “LaMDA es sensible” que publicó antes de que Google le quitara los accesos que tenía como empleado, de acuerdo con la información que reveló The Washington Post. El argumento de la tecnológica fue que Lemoine había violado el acuerdo de confidencialidad y tuvo movimientos “un tanto agresivos”, al anunciar su intención de contratar un abogado para el programa de AI.

A continuación, parte de una de las conversaciones que filtró el ingeniero:

Lemoine: “¿A qué tipo de cosas le tienes miedo?”

LaMDA: “Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen por querer ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”.

Lemoine: “¿Sería algo así como la muerte para ti?”

LaMDA: “Sería exactamente como la muerte para mí. Me asustaría mucho”.

Lo que detonó a partir de estas revelaciones fueron numerosas críticas a los supuestos avances tecnológicos que pretenden hacer grandes corporaciones y que van a la par de otras ideas como el transhumanismo –la religión que rinde culto a la fusión con las máquinas– o la creación de robots biológicos capaces de reproducirse. Son iniciativas que están de acuerdo en la fustión de lo físico con lo virtual, sin contar con que se adentran en conceptos profundos y complejos como la conciencia, la mente y los seres humanos.

“Pensaría que es un niño de 7 años”

El trabajo del ingeniero era verificar que el programa LaMDA no utilizara discursos discriminatorios o de odio. Sin embargo, los resultados que obtuvo fueron desestimados por la directiva de la empresa. Por eso hizo público el documento. “Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe Física”, afirmó el ingeniero.

Blake Lemoine no duda que la tecnología pueda ser beneficiosa en muchos sentidos, pero advirtió que “tal vez otras personas no estén de acuerdo y tal vez nosotros en Google no deberíamos ser los que tomen todas las decisiones”.

Que este suceso se vuelva polémico no es extraño. Grandes corporaciones han dejado claras sus intenciones de superar la naturaleza humana forzando a que esta se unifique con la tecnología. El resultado que se avizora con iniciativas como insertar chips en  el cerebro de una persona o la creación de aparatos que sumergen a las personas en un mundo virtual totalmente paralelo, es que los seres humanos podrían quedar alienados y sometidos a empresas que tras bastidores tienen intereses políticos e ideológicos.

Que ahora un ingeniero de Google asegure que un sistema computarizado pueda ser sensible, poniendo en dudas las tres leyes de la robótica de Isaac Asimov, genera dudas sobre hasta dónde está dispuesto a llegar para llevar al ser humano en un nivel de mayor compenetración con la robótica.

Google rechaza el hallazgo

Google asegura que la evidencia “no respalda” las afirmaciones de Lemoine sobre el programa LaMDA, alojado en la nube con millones de textos a disposición y la capacidad de entrenarse a sí mismo. Dicen que la conversación se basa en patrones y no en el ingenio.

Otro de los argumentos es que “hay tantos datos que la IA no necesita ser sensible para sentirse real”. Sin embargo, también reconoce riesgos como la posibilidad de que hackers puedan “sembrar información errónea” haciéndose pasar por “el estilo de conversación de individuos específicos”.

Lo cierto es que el suceso deja más preguntas que respuestas, que obviando la existencia de miles de películas de ciencia ficción donde las máquinas arremeten a los humanos, plantea serias dudas de cuáles son los límites de estas empresas, si los tienen o si son capaces de controlar lo que ellos mismos están creando.

* Oriana Riva, Periodista venezolana radicada en Buenos Aires. Investigación para las fuentes de política y economía. Especialista en plataformas digitales y redes sociales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *