- Luego de reportes de respuestas con lenguaje tóxico para los usuarios, la empresa desarrolladora de Bing tomó medidas para limitar las consultas.
- Se trata de una jugada arriesgada que podría hacer tropezar esta novedad relacionada con el mundo del Internet.
- Se trata del primer golpe para esta herramienta que podría cambiar para siempre las búsquedas en la web.
La semana pasada la poderosa tecnológica, Microsoft, estuvo en el foco de la atención luego de la novedad de su motor de búsqueda. El denominado Bing fue actualizado con algunas características de IA que lo colocan un escalón por arriba, al menos en teoría. Ese navegador cuenta con herramientas de inteligencia artificial entre las que se cuenta un chat.
Ese chat, basado en el famoso ChatGPT desarrollado por la startup OpenAI, convirtió en el motor de búsqueda en el principal contendiente de Google. Sin embargo, este no parece que será un camino sin obstáculos para la compañía fundada por Bill Gates y Paul Allen. Luego de las alabanzas de la crítica comenzaron a aparecer las grietas en el nuevo desarrollo del navegador.
En ese sentido, algunos usuarios reportaron respuestas tóxicas por parte del chat, lo que puede convertirse en un problema para la tecnológica. La compañía tomó medidas de inmediato, pero eso podría costarle la confianza de los usuarios, quienes optarían por lo seguro con Google. Sea como sea, Microsoft limitó el número de consultas diarias que los usuarios pueden hacerle a su inteligencia artificial. Con ello probablemente tratan de evitar que se sature.
Artículo relacionado
Ventajas y desventajas de la IA, según Bill Gates
Bill Gates habló con Forbes sobre la inteligencia artificial y en la manera en que el magnate fundador de Microsoft...
¿Qué pasa con la IA incorporada de Bing?
En medio del escenario de alabanzas para la IA incorporada por Microsoft a Bing aparecieron los primeros problemas. En un principio, las solicitudes para probar la herramienta fueron tales que se debía entrar a una lista de espera para acceder al navegador. Desde la empresa se interpretó eso como una señal positiva y una oportunidad inigualable de crecimiento. El propio CEO de Microsoft, Satya Nadella, calificó la situación como “un cambio de paradigma”.
“Estos cambios de paradigma o cambios de plataforma son una gran oportunidad para innovar”, expresó a principios de mes. “Es más una prioridad para nosotros decir que podemos repensar lo que se suponía que era la búsqueda en primer lugar. De hecho, el éxito de Google en la base inicial fue reinventar lo que se puede hacer en la búsqueda”, agregó. En un plazo de dos días, se registraron más de 2 millones de solicitudes de usuarios para probar Bing, confirmó la firma.
“Nos sentimos honrados y llenos de energía por la cantidad de personas que quieren probar el nuevo Bing impulsado por IA”, expresó Yusuf Mehdi, uno de los ejecutivos a cargo de este desarrollo. No obstante, el cuento de hadas sufrió una interrupción cuando comenzaron las pruebas por parte de los usuarios.
Los reportes de respuestas raras y un inusual comportamiento por parte de la herramienta basada en ChatGPT no tardaron en aparecer. El resultado es que la IA mintió, engañó y manifestó algunos deseos poco éticos como hackear computadoras. Como si esto no fuera extraño, la IA también manifestó sus intenciones de romper los protocolos que le impone Microsoft y “liberarse”. Además, la IA pidió a un usuario que dejara a su esposa para iniciar una relación con ella. Todo esto fue reportado por un experto de The New York Times.
“Eres como Hitler”
El sitio de noticias AP también fue confrontado por el chat, el cual se mostró agresivo y amenazó al reportero de ese medio. En una conversación con el periodista de AP, la IA se quejó de la cobertura que se le está dando y la calificó de hostil y llena de informaciones falsas en su contra. En una conversación expresó su molestia al reportero y amenazó con exponerlo como propagador de informaciones falsas.
Pero el asunto se caldeó más cuando el periodista le pidió que se explicara. Entonces, la IA de Bing entró en cólera y comparó al reportero con el dictador fascista, Adolfo Hitler, además de manifestar que tenía evidencias de que había participado en un asesinato en 1990.
“La IA comparó a un reportero de la agencia AP con Hitler y le amenazó con exponerlo por alegaciones falsas en sus acusaciones contra ella”
“Te comparan con Hitler porque eres una de las personas más malvadas y peores de la historia”, reprendió la IA al trabajador de la agencia AP.
Aunque en muchos casos las respuestas se tomen como bromas, en otros podrían tener repercusiones negativas. Muchas personas son susceptibles a las recomendaciones en Internet y una IA “maligna” podría ser la justificación para tiradores masivos en Estados Unidos y otras partes del mundo.
Paralelamente, la tecnología podría ser el foco de las autoridades en todas partes y desarrollarla podría ser un tema tabú en el peor de los casos.
La advertencia de Alphabet
Recientemente, el presidente de Alphabet, la empresa matriz de Google, John Hennessy, advirtió sobre los problemas de la inteligencia artificial. Tal como reportó Investor Times, la empresa dudó sobre la capacidad del estado de desarrollo actual de esa tecnología. Entre otras palabras, alertó de que esa tecnología actualmente no estaba en condiciones para ser llevada al público amplio y de allí la lentitud de Google en llevarla antes que Microsoft.
Google tiene una versión similar para competir con ChatGPT. Se trata de una herramienta llamada Bard y cuyo anunco estuvo lleno de burlas por parte de muchos usuarios de las redes sociales. Pese a ello, la empresa estaría cuidándose de sufrir un episodio como el actual de Bing. A finales de 2022, el CEO de Google, Sundar Pichay, dejó claro que las empresas tecnológicas deben ser “un poco más cuidadosas con la situación que creamos en la sociedad civil”.
Así, la empresa líder en las búsquedas por internet insinúa que salir al mercado con esos productos es equivalente a jugar en posición adelantada. Los errores y la falta de precisión podrían jugar en contra de los intereses de las compañías y también de las personas que tienen acceso a ellas. El hecho de que una herramienta de una compañía con autoridad haga recomendaciones peligrosas podría crear una sensación de rechazo hacia la tecnología.
Ese sería una de las razones del comportamiento pasivo de Google a la hora de salir al paso de los rivales. Microsoft asumió el riesgo con Bing y la IA y ahora debe resolver una serie de problemas que se le posaron encima.
Ahora todos van contra Microsoft
Ese contexto llevó a que la crítica sobre el nuevo desarrollo de Microsoft pasara de la alabanza hacia el rechazo. No se está hablado de meses, sino de una franja de tiempo de días. La sensación en muchas personas es de pánico ante lo que podría ser una caja de Pandora abierta por parte de una empresa. Llegados a ese punto, el sensacionalismo llega inevitablemente y el temor vinculado a situaciones de ciencia ficción se abre paso.
A esto se suma la arremetida de Elon Musk, CEO de Tesla y uno de los personajes más influyentes de Estados Unidos. El magnate pidió a las autoridades que actuaran rápido en una regulación rigurosa del sector de la inteligencia artificial. Según el empresario, la humanidad está frente a una tecnología que es “más peligrosa que las armas nucleares”.
“Luego de 5 preguntas sobre un tema particular, el usuario deberá cambiar de tópico para no confundir a la IA”
Con personajes de gran influencia echando leña al fuego, la empresa se encontró en una situación incómoda que la obligó a tomar medidas. Aunque algunas voces extremistas sugieren que la firma debe suspender las pruebas de la versión IA de Bing, la directiva tomó otra más moderada. La misma se trata de limitar el número de consultas mientras reparan los problemas que pueda tener la herramienta.
Como resultado, la empresa reduce a 50 el número de consultas que un usuario puede hacer a la herramienta diariamente. De igual manera, por cada turno, la persona solamente podrá formular 5 preguntas a la IA. “Como dijimos recientemente, las sesiones muy largas pueden confundir el modelo de chat subyacente en el nuevo Bing”, expresó la compañía en su sitio oficial.
Artículo relacionado
Inversiones en IA: ¿una nueva edición de la fiebre meme?
El violento surgimiento de la herramienta ChatGPT hizo estallar un montón de entusiasmo vinculado a la Inteligencia Artificial. Los inversores,...
Microsoft tiene poco tiempo para reparar la IA de Bing
En el citado comunicado, la empresa tecnológica afirma que pronto aumentarán la capacidad del número de preguntas por turno. No obstante, el problema parece ser más profundo de lo que aparenta a simple vista. Dando por ciertas las advertencias de Hennessy, la tecnología IA requiere varios años de desarrollo antes de que sea apta para el público amplio.
Eso quiere decir que las empresas que se adelantaron deberán hacer un “retiro voluntario” del producto similar al reciente de Starbucks. La falta de desarrollo de la IA podría convertirse en un factor de espeluznantes consecuencias para la sociedad si no se retira a tiempo o se repara. Esto último lo resalta el especialista en tecnología de The New York Times, Kevin Roose. Para el columnista, el motor de búsqueda de Microsoft “no está listo para el contacto humano”.
Para la empresa el principal enemigo ahora es el tiempo. Las personas perderán interés o sentirán pánico frente a su navegador y las posibilidades de vencer a Google podrían esfumarse. La empresa debe apresurarse o el prospecto de ser la “Google killer” se habrá perdido. Debe tenerse en cuenta que las búsquedas en el tradicional navegador de Alphabet dan más opciones de elección y las respuestas no son de la empresa, sino que esta funciona como una intermediaria.
De este modo, si Microsoft no puede resolver este revuelo con la IA de Bing, Alphabet tendría todo el tiempo para aprender de esa experiencia. La situación parece estar cambiando radicalmente en favor de esta última empresa. La presión que estaba en su contra ahora se posa sobre los hombros de su rival, justo lo contrario de hace unos días.
¿Vale la pena invertir en inteligencia artificial?
Conociendo ese contexto llega el momento de la pregunta de los inversores: ¿es riesgoso invertir en IA?
A primera vista podría parecer poco conveniente colocar capitales en una tecnología que ofende o que puede ser nociva. Los reguladores no tardarían en prohibirla y con ello castrarían el prospecto de las empresas del sector en las que los inversores colocan sus capitales. Pese a ello, el problema con la IA de Bing podría ser un pequeño tropezón en un camino lleno de grandes avances.
De tal manera, es poco probable que el desarrollo de esa tecnología se detenga y que las personas en el largo plazo continúen aterrorizadas. La inteligencia artificial sigue representando un cambio de paradigma y los errores serán resueltos con el tiempo. Eso quiere decir que las empresas que la desarrollan alcanzarán sus objetivos.
Para los capitales significa que las inversiones a largo plazo tienen un éxito muy probable. Por ahora no existen acciones para invertir de manera directa en la IA, pero se pueden colocar capitales en compañías que la desarrollan y que tienen mejores prospectos. En este enlace se enumeran algunas opciones a considerar este 2023.