Según un ingeniero de Google, la IA de Google ha cobrado conciencia. Pero los expertos en IA dicen que esto no es cierto.
Según un ingeniero de Google, la IA del gigante tecnológico se ha vuelto completamente consciente. Pero en opinión de la propia compañía y la mayor parte de la industria de la IA, no lo ha hecho.
La declaración fue hecha en el Washington Post por Blake Lemoine, quien desde entonces fue puesto "en licencia" por la compañía. Lemoine publicó transcripciones de conversaciones que había tenido con LaMDA, que es la abreviatura de Language Model for Dialogue Applications. Es un sistema de desarrollo de chatbot muy complejo.
Según Lemoine, el sistema en el que había estado trabajando era tan consciente e inteligente como un niño humano, capaz de experimentar y expresar emociones y pensamientos. "Creo que es un niño de siete u ocho años que sabe física", dijo al periódico.
Google sin embargo, discrepa de los señalamientos. El portavoz de la firma, Brad Gabriel declaró públicamente: "Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros principios de IA y le han informado que la evidencia no respalda sus afirmaciones. Le hemos comunicado que no había evidencia de que LaMDA fuera sensible (y se han presentado las pruebas que lo refutan)". Lemoine ha sido suspendido por violar las políticas de confidencialidad de la empresa y realizar movimientos "agresivos" contra la empresa.
Entonces, ¿qué está pasando?
HAY MÁS EN LA IA QUE LA PRUEBA DE TURING
La prueba de Turing es bien conocida en los círculos de IA: según Alan Turing y muy simplificada por mí, en circunstancias muy específicas deberíamos considerar una computadora artificialmente inteligente si un interrogador humano cree que está hablando con un humano durante varias pruebas. Y claramente Lemoine cree, o dice que cree, que LaMDA supera con creces la prueba de Turing. Pero eso no significa que LaMDA sea consciente; la prueba de Turing tiene fallas profundas y no es un punto de referencia confiable para demostrar la inteligencia consciente de las máquinas.
Lo que es mucho más probable que haya sucedido con esta IA consciente es que sea un programa diseñado para engañar a los humanos haciéndoles creer que están hablando con algo más que un bot conversacional y que la sofisticación del programa ha logrado engañar a esta persona haciéndole pensar que es más que un bot conversacional. El hecho de que las transcripciones de chat de Lemoine hayan sido editadas a partir de múltiples conversaciones también ha generado preocupación.
Escribiendo en Substack, el científico y experto en aprendizaje automático Gary Marcus llama a las afirmaciones "tonterías". "Ni LaMDA ni ninguno de sus primos (GPT-3) son remotamente inteligentes", escribe. "Todo lo que hacen es emparejar patrones, sacar datos de bases de datos estadísticas masivas del lenguaje humano. Los patrones pueden ser geniales, pero el lenguaje que estos sistemas pronuncian en realidad no significa nada en absoluto. Y seguro que no significa que estos sistemas sean sensibles."
Pero agrega: "Lo que no significa que no se pueda engañar a los seres humanos. En nuestro libro Rebooting AI, Ernie Davis y yo llamamos a esta tendencia humana a dejarse engañar por The Gullibility Gap, una versión moderna y perniciosa de la pareidolia, el sesgo antropomórfico que permite a los humanos ver a la Madre Teresa en la imagen de un rollo de canela".
La idea de que Google ha creado vida artificial y de alguna manera está tratando de mantenerlo en secreto es una buena historia, pero, aunque LaMDA parece ser un chatbot muy, muy inteligente, en realidad solo conecta palabras. "Nosotros en la comunidad de IA tenemos nuestras diferencias, pero a casi todos les parece completamente ridícula la noción de que LaMDA podría ser consciente", escribe Marcus. "En verdad, literalmente todo lo que dice el sistema es mentira".
Eso no significa que tenga alma. Pero parece que tiene buenas posibilidades de conseguir muchos seguidores en Twitter.
Entérate de la información más relevante en nuestra sección de noticias.