Una aerolínea en Canadá se vio obligada a reembolsar a un pasajero luego de que su asistente de IA inventara un beneficio. Mientras, Gemini de Google representó nazis como personas de color y ChatGPT dijo disparates.
***
Las herramientas de IA alucinan generando polémicas y costos adicionales para las empresas
Una aerolínea en Canadá reembolsó a un pasajero luego de que su chatbot de IA inventó una política
Gemini de Google causó polémica con sus imágenes inclusivas pero inexactas históricamente
Mientras, ChatGPT enloqueció y dijo disparates, pero luego se arregló
Las alucinaciones de la tecnología de inteligencia artificial (IA) les están generando altos costos a las empresas.
Esta semana, una aerolínea tuvo que reembolsar a un pasajero luego de que su asistente impulsado por IA inventara una política inexistente. Mientras tanto, la inclusividad exacerbada del recién lanzado modelo de inteligencia artificial de Google para crear imágenes generó polémicas cuando representó nazis como personas de color. ChatGPT de OpenAI también alucinó salvajemente.
En el mundo de la IA, el término “alucinación” hace referencia a cundo un modelo de lenguaje grande (LLM) como ChatGPT u otra herramienta similar arroja información imprecisa, incoherente, incorrecta, sesgada parcial o completamente.
Aerolínea paga por los errores de su asistente robot
La aerolínea Air Canada fue ordenada por un tribunal de Columbia Británica a reembolsar a un pasajero luego de que su chatbot de IA para el servicio de atención al cliente le prometiera un beneficio por duelo.
El cliente le habría consultado al asistente impulsado por IA de la aerolínea si podía reclamar un precio más bajo para sus boletos por el fallecimiento de su abuela, a lo que el robot respondió afirmativamente presentándole un beneficio que en realidad la compañía no tiene. Luego de no obtener la tarifa prometida, el pasajero demandó a la aerolínea.
Air Canada reconoció que el robot proporcionaba “palabras engañosas” y que se había inventado una política que la compañía no tiene. Dijo al cliente enfadado que actualizaría al asistente para que respondiera de forma adecuada.
La aerolínea también habría intentado eludir la responsabilidad por las acciones del chatbot al asegurar que el sistema de IA es una “entidad jurídica separada“, según documentos judiciales. El juez no se comió el cuento y terminó por ponerse del lado del demandante al ordenar a Air Canada emitir un reembolso por aproximadamente 600 dólares.
No cabe duda que la atención al cliente es una tarea compleja, incluso para las herramientas avanzadas de IA. Esta no es la primera vez que el asistente de inteligencia artificial de una empresa comete errores. Hace unas semanas, la empresa de repartos DPD tuvo que disculparse públicamente después de que su chatbot dijera groserías a un cliente y se revelase contra su empleador.
Las IA de Google y OpenAI también enloquecieron
Entretanto, en otras noticias de la acelerada industria de inteligencia artificial, los modelos de las principales empresas de tecnología Google y OpenAI también hicieron disparates esta semana.
Gemini, el recién lanzado modelo de IA de Google, generó polémicas cuando hizo representaciones inclusivas en términos de género y raza, pero increíblemente inadecuadas históricamente. En particular, Gemini falló cuando los usuarios le pidieron representaciones de nazis y fundadores de EE. UU., y arrojó imágenes de mujeres, nativos americanos, personas de color y otras etnias.
La gigante de tecnología reconoció el error, posiblemente causado por los esfuerzos de combatir los sesgos por falta de diversidad de la IA de larga data. Google incluso tuvo que suspender temporalmente el modelo para atender el problema.
Google AI Gemini shows non-White women when asked to generate pictures of Nazi soldiers.
Follow: @AFpost pic.twitter.com/w0ML5TXO04
— AF Post (@AFpost) February 21, 2024
ChatGPT, el producto insigne de OpenAI, fue otro que tuvo alucinaciones salvajes esta semana, logrando levantar las cejas de los usuarios y provocando que algunos se cuestionaran si el sistema estaba sufriendo una suerte de “derrame cerebral“.
El problema pareció ser generalizado, ya que varios usuarios en Reddit compartieron capturas de respuestas sin sentido. En algunos casos, el modelo de IA respondió en bucle, repitiendo las mismas palabras o frases una y otra vez. El problema se extendió al generador de imágenes a partir de texto de ChatGPT, que habría arrojado imágenes imprecisas.
“Disparado por las ondas del entorno fotográfico, acurrucando el producto muy profundamente como si fuera una niñera bajo un sombrero de color administrativo“, escribió el popular chatbot en una respuesta confusa y plagada de errores tipográficos.
OpenAI reconoció el error poco después y aseguró que había implementado una solución, marcando el incidente como resuelto.
***
Las gigantes de tecnología, que se han embarcado en una carrera por avanzar en la IA en medio de la popularidad de ChatGPT, no son ajenas a los problemas de estas innovaciones. Microsoft anunció esta semana su mayor inversión en España con la intención de desarrollar IA “responsable” y Meta también ha abierto una línea de ayuda en WhatsApp para abordar los deepfakes.
Artículo de Hannah Estefanía Pérez / DiarioBitcoin
Imagen editada de Unsplash
DiarioBitcoin