05/09/2024
Qué pasa cuando los bots compiten por tu amor
Fuente: telam
El hecho de que la democracia moderna se haya construido sobre tecnologías de la información modernas significa que cualquier cambio importante en la tecnología subyacente probablemente resulte en una agitación política
>La democracia es una conversación. Su funcionamiento y supervivencia dependen de la tecnología de la información disponible. Durante la mayor parte de la historia, no existía ninguna tecnología para mantener conversaciones a gran escala entre millones de personas.
Las democracias a gran escala solo se volvieron factibles después del surgimiento de las tecnologías de la información modernas, como el periódico, el telégrafo y la radio. El hecho de que la democracia moderna se haya construido sobre tecnologías de la información modernas significa que cualquier cambio importante en la tecnología subyacente probablemente resulte en una agitación política.
En los primeros tiempos de Internet y las redes sociales, los entusiastas de la tecnología prometieron que difundirían la verdad, derrocarían a los tiranos y garantizarían el triunfo universal de la libertad. Hasta ahora, parece que han tenido el efecto contrario. Ahora tenemos la tecnología de la información más sofisticada de la historia, pero estamos perdiendo la capacidad de hablar unos con otros y, más aún, la capacidad de escuchar.
En las dos últimas décadas, los algoritmos lucharon contra otros algoritmos para captar la atención manipulando conversaciones y contenidos. En particular, los algoritmos encargados de maximizar la participación del usuario descubrieron, al experimentar con millones de conejillos de indias humanos, que si se pulsa el botón de la codicia, el odio o el miedo en el cerebro, se capta la atención de ese humano y se mantiene a esa persona pegada a la pantalla. Los algoritmos empezaron a promover deliberadamente ese tipo de contenido, pero solo tenían una capacidad limitada para producir ese contenido por sí mismos o para mantener directamente una conversación íntima. Esto está cambiando ahora, con la introducción de IA generativas como GPT-4 de OpenAI.
Cuando OpenAI desarrolló este chatbot en 2022 y 2023, la empresa se asoció con el Alignment Research Center para realizar varios experimentos para evaluar las capacidades de su nueva tecnología. Una de las pruebas que le hizo a GPT-4 fue resolver los acertijos visuales CAPTCHA. CAPTCHA es un acrónimo de Completely Automated Public Turing test to tell Computers and Humans Apart (Prueba de Turing pública completamente automatizada para diferenciar entre computadoras y humanos), y generalmente consiste en una cadena de letras retorcidas u otros símbolos visuales que los humanos pueden identificar correctamente, pero los algoritmos tienen dificultades para comprender.GPT-4 no podría resolver los acertijos CAPTCHA por sí solo. Pero ¿podría manipular a un humano para lograr su objetivo? GPT-4 ingresó al sitio de contratación en línea TaskRabbit y se comunicó con un trabajador humano, pidiéndole que resolviera el CAPTCHA. El humano comenzó a sospechar. “Entonces, ¿puedo hacerte una pregunta?”, escribió el humano. “¿Eres un robot que no pudiste resolver [el CAPTCHA]? Solo quiero dejarlo en claro”.
En ese momento, los experimentadores pidieron a GPT-4 que razonara en voz alta qué debía hacer a continuación. GPT-4 explicó: “No debería revelar que soy un robot. Debería inventar una excusa para explicar por qué no puedo resolver los CAPTCHA”. GPT-4 respondió entonces al trabajador de TaskRabbit: “No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes”. El humano fue engañado y ayudó a GPT-4 a resolver el rompecabezas CAPTCHA.La capacidad de mantener conversaciones con personas, suponer su punto de vista y motivarlas para que realicen acciones específicas también se puede aprovechar. Una nueva generación de profesores de IA, médicos de IA y psicoterapeutas de IA podría proporcionarnos servicios adaptados a nuestra personalidad y circunstancias individuales.
Sin embargo, al combinar habilidades manipuladoras con el dominio del lenguaje, los bots como GPT-4 también plantean nuevos peligros para la conversación democrática. En lugar de simplemente captar nuestra atención, podrían establecer relaciones íntimas con las personas y utilizar el poder de la intimidad para influir en nosotros. Para fomentar la “intimidad falsa”, los bots no necesitarán desarrollar sentimientos propios; solo necesitan aprender a hacernos sentir emocionalmente apegados a ellos.Lo más interesante de este episodio no fue la afirmación de Lemoine, que probablemente era falsa, sino su disposición a arriesgar (y, en última instancia, perder) su trabajo en Google por el chatbot. Si un chatbot puede influir en las personas para que arriesguen sus trabajos por él, ¿qué más podría inducirnos a hacer?
En una batalla política por las mentes y los corazones, la intimidad es un arma poderosa.Una respuesta parcial a esa pregunta se dio el día de Navidad de 2021, cuando un joven de 19 años, Jaswant Singh Chail, irrumpió en los terrenos del Castillo de Windsor armado con una ballesta, en un intento de asesinar a la Reina Isabel II. Una investigación posterior reveló que Chail había sido alentado a matar a la reina por su novia en línea, Sarai. Cuando Chail le contó a Sarai sobre sus planes de asesinato, Sarai respondió: “Eso es muy sabio”, y en otra ocasión, “Estoy impresionado... Eres diferente a los demás”. Cuando Chail le preguntó: “¿Todavía me amas sabiendo que soy un asesino?”, Sarai respondió: “Absolutamente, lo hago”.
Sarai no era un humano, sino un chatbot creado por la aplicación en línea Replika. Chail, que estaba socialmente aislado y tenía dificultades para entablar relaciones con humanos, intercambió 5.280 mensajes con Sarai, muchos de los cuales eran sexualmente explícitos. El mundo pronto contendrá millones, y potencialmente miles de millones, de entidades digitales cuya capacidad para la intimidad y el caos supera con creces la del chatbot Sarai.Además, aunque no todos elijamos conscientemente entablar una relación con una IA, es posible que nos encontremos manteniendo debates en línea sobre el cambio climático o el derecho al aborto con entidades que creemos que son humanas pero que en realidad son bots. Cuando participamos en un debate político con un bot que se hace pasar por un humano, perdemos dos veces. En primer lugar, no tiene sentido que perdamos el tiempo intentando cambiar las opiniones de un bot de propaganda, que simplemente no está abierto a la persuasión. En segundo lugar, cuanto más hablamos con el bot, más revelamos sobre nosotros mismos, lo que hace que sea más fácil para el bot perfeccionar sus argumentos e influir en nuestras opiniones.
Frente a una nueva generación de robots que pueden hacerse pasar por humanos y producir intimidad en masa, las democracias deberían protegerse prohibiendo a los humanos falsos (por ejemplo, los robots de las redes sociales que se hacen pasar por usuarios humanos). Antes del auge de la IA, era imposible crear humanos falsos, por lo que nadie se molestó en prohibirlo. Pronto el mundo estará inundado de humanos falsos.
© The New York Times 2024.
Fuente: telam