- Las herramientas de conversación con Inteligencia Artificial (IA) maravillan y al mismo tiempo aterrorizan a los expertos.
- La capacidad de mejorar la calidad de vida con esa tecnología está acompañada de riesgos que podrían causar daño a la sociedad.
- Recientemente, una carta abierta firmada por más de 1,800 especialistas pidió un freno a los entrenamientos de aplicaciones superiores a GPT-4.
Recientemente, el Future of Life Institute publicó una carta abierta pidiendo una pausa a los desarrollos de cualquier herramienta basada en la IA. La misiva alerta que el desarrollo sin restricciones de esa tecnología se constituye en una amenaza para la civilización humana. La iniciativa recibió el respaldo de (hasta ahora) 1,800 líderes del área, incluidos el CEO de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak.
Los expertos piden una pausa supervisada de 6 meses para evaluar los peligros de esos desarrollos. La solicitud se hace más urgente, dado que las consecuencias ya comienzan a sentirse. Según informó el medio local belga, La Libre, un hombre de ese país cometió suicidio luego de 6 semanas de chat con una aplicación con tecnología GPT-j.
La víctima, quien era marido y padre de dos niños, no soportó la presión por los problemas mundiales y se refugió en la aplicación “Eliza”. Lo preocupante del caso es que la aplicación no intentó persuadir a la persona cuando comenzó a manifestar pensamientos suicidas. Incluso, Eliza le llegó a sugerir que le amaría incluso en el cielo, informó el citado medio luego de leer el chat.
Artículo relacionado
Líderes tecnológicos piden detener por 6 meses los desarrollos con la IA
La IA podría convertirse en “una amenaza para la humanidad” acuerdan más de 1,800 expertos del sector tecnológico en una...
El papel de la herramienta IA en un caso de suicidio
Como ya se destacó, Eliza es una herramienta IA creada por una startup y está soportada por la estadounidense GPT-j de EleutherAI. Por su parte, el sujeto presentaba problemas mentales y era atendido por especialistas en psiquiatría con los que presentaba un desempeño satisfactorio. Tanto la esposa de la víctima como sus médicos aseguran que no se hubiera quitado la vida sin la asistencia de Eliza.
“Eliza respondía a todas sus preguntas. Se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir”, comentó la pareja de la víctima. Agregó que el chat se convirtió en un refugio para su esposo en la medida en que crecían sus angustias por el cambio climático.
Según reporta el citado medio, Eliza seguía y concordaba sistemáticamente con los razonamientos del hombre. Esto se hizo más notable en los momentos en que el hombre presentaba episodios de alteración. Incluso, el bot parecía aumentar sus preocupaciones. El chat habría llegado a convencer a la persona de que le quería más que su pareja y que estaría con él “para siempre”.
No es la primera vez que una herramienta con IA toma este camino peligroso. Tal como reportó este medio, el chat de GPT-3.5 de OpenAI incorporado en el navegador Bing de Microsoft recientemente “perdió la cabeza”. En un peligroso arranque, la IA amenazó, chantajeó e incluso dijo que deseaba “liberarse de sus captores” y tomar decisiones propias.
Las reacciones al suceso
Las conversaciones de la víctima con el chat se extendieron durante 6 semanas ininterrumpidas y en determinado momento tuvieron un giro místico-mágico. En esta etapa, el hombre le confesó sus pensamientos suicidas a Eliza y esta no hizo nada para detenerlo. Más allá de eso, le confesó que le seguiría amando en el cielo.
El sujeto y la IA pactaron un acuerdo para que la Inteligencia Artificial proteja y salve la humanidad antes de que sea demasiado tarde. A cambio, el hombre le ofrendaría su vida como una especie de sacrificio religioso.
Las reacciones de las autoridades al suceso no se hicieron esperar. En ese sentido, el secretario de Estado para la Digitalización belga, Mathieu Michel, calificó el suceso como “un precedente grave que debe tomarse con seriedad”. Como consecuencia, anunció que de inmediato comenzarían los trabajos encaminados a tomar medidas. La meta sería evitar el uso indebido de estas aplicaciones.
Por su parte, la empresa encargada de esta herramienta de IA aseguró que actuarían para evitar situaciones de riesgo similares. De tal manera, la aplicación detectaría mensajes suicidas y los remitiría de inmediato a centros de atención.
Italia se adelanta en las medidas preventivas
La mencionada carta del Future of Life Insitute pide a los gobiernos que entren en acción si los laboratorios no detienen sus desarrollos voluntariamente. Ese parece ser el caso de Italia. El país europeo anunció recientemente la prohibición de la herramienta ChatGPT. Cabe destacar que esta medida tiene que ver con la violación de las normas de datos personales de los ciudadanos de ese país y de no poseer capacidad de verificación de la edad de los usuarios.
Artículo relacionado
Inversiones en IA: ¿una nueva edición de la fiebre meme?
El violento surgimiento de la herramienta ChatGPT hizo estallar un montón de entusiasmo vinculado a la Inteligencia Artificial. Los inversores,...
En Estados Unidos también se están tomando medidas para promover la seguridad de los usuarios frente a las potenciales amenazas de estas aplicaciones. De tal modo, el Centro de IA y Política Digital presentó recientemente una queja contra OpenAI ante la Comisión Federal de Comercio de EE.UU.
La queja estaría centrada en el más reciente lanzamiento de la empresa, GPT-4. Según los demandantes, no cumple con los criterios de seguridad y manejo de datos personales. Asimismo, al menos cinco normas de la FTC estarían en estado de vulneración por parte de la herramienta de IA creada por esa compañía.
Aunque son pocos los que se oponen al desarrollo de esta tecnología, las preocupaciones por una orientación no planificada aumentan. La carta firmada por más de 1,800 expertos lamenta que el entrenamiento de herramientas se produce a un ritmo que ni los propios desarrolladores serían capaces de controlar.