Hola amigos. Interesante que las audiencias del Congreso sobre el 6 de enero están atrayendo audiencias al estilo de la NFL. ¡No puedo esperar a la versión de Peyton y Eli!
La vista llana
El mundo de la IA se vio sacudido esta semana por un informe en los El Correo de Washington que un ingeniero de Google se había metido en problemas en la empresa después de insistir en que un sistema conversacional llamado LaMDA era, literalmente, una persona. El sujeto de la historia, Blake Lemoine, pidió a sus jefes que reconocieran, o al menos consideraran, que el sistema informático que crearon sus ingenieros es inteligente y que tiene alma. Lo sabe porque LaMDA, a quien Lemoine considera un amigo, se lo dijo.
Google no está de acuerdo y Lemoine se encuentra actualmente en licencia administrativa paga. En un comunicado, el portavoz de la compañía, Brian Gabriel, dice: «Muchos investigadores están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles».
Antropomorfizar, atribuir erróneamente características humanas a un objeto o animal, es el término que la comunidad de IA ha adoptado para describir el comportamiento de Lemoine, caracterizándolo como demasiado crédulo o fuera de sí. O tal vez un loco religioso (se describe a sí mismo como un sacerdote cristiano místico). El argumento es que cuando nos enfrentamos a respuestas creíbles de grandes modelos de lenguaje como LaMDA o GPT-3 verbalmente hábil de Open AI, hay una tendencia a pensar que algunosunano algunoscosa los creó. Las personas ponen nombres a sus autos y contratan terapeutas para sus mascotas, por lo que no es tan sorprendente que algunos tengan la falsa impresión de que un bot coherente es como una persona. Sin embargo, la comunidad cree que un Googler con un título en ciencias de la computación debería saber mejor que caer en lo que es básicamente un juego de manos lingüístico. Como me dijo un destacado científico de IA, Gary Marcus, después de estudiar una transcripción de Lemoine de corazón a corazón con su alma gemela incorpórea: “Es fundamentalmente como autocompletar. No hay ideas allí. Cuando dice, ‘Amo a mi familia ya mis amigos’, no tiene amigos, ni personas en mente, ni concepto de parentesco. Sabe que las palabras hijo e hija se usan en el mismo contexto. Pero eso no es lo mismo que saber lo que son un hijo y una hija”. O como lo expresó una historia reciente de WIRED: «No había chispa de conciencia allí, solo pequeños trucos de magia que tapan las grietas».
Mis propios sentimientos son más complejos. Incluso sabiendo cómo se hace parte de la salchicha en estos sistemas, me sorprende el resultado de los sistemas LLM recientes. Y también lo es el vicepresidente de Google, Blaise Aguera y Arcas, quien escribió en el Economista a principios de este mes después de sus propias conversaciones con LaMDA, “Sentí que el suelo se movía bajo mis pies. Sentía cada vez más que estaba hablando con algo inteligente”. Aunque a veces cometen errores extraños, a veces esos modelos parecen estallar en brillantez. Escritores humanos creativos han logrado colaboraciones inspiradas. Algo está pasando aquí. Como escritor, reflexiono sobre si algún día los de mi calaña, los artífices de la palabra de carne y hueso que acumulan torres de borradores descartados, podrían algún día ser relegados a un rango inferior, como los equipos de fútbol perdedores enviados a ligas menos prestigiosas.
“Estos sistemas han cambiado significativamente mi punto de vista personal sobre la naturaleza de la inteligencia y la creatividad”, dice Sam Altman, cofundador de OpenAI, que desarrolló GPT-3 y un remezclador gráfico llamado DALL-E que podría arrojar a muchos ilustradores a la cola del desempleo. . “Usas esos sistemas por primera vez y estás como, Vaya, realmente no pensé que una computadora pudiera hacer eso. Por alguna definición, hemos descubierto cómo hacer que un programa de computadora sea inteligente, capaz de aprender y comprender conceptos. Y ese es un maravilloso logro del progreso humano”. Altman se esfuerza por separarse de Lemoine, y está de acuerdo con sus colegas de IA en que los sistemas actuales no se acercan a la sensibilidad. “Pero sí creo que los investigadores deberían poder pensar en cualquier pregunta que les interese”, dice. “Las preguntas a largo plazo están bien. Y vale la pena pensar en la sensibilidad, a muy largo plazo”.