Google le puso el freno de emergencia a su flamante modelo de IA, Gemini, al menos en lo que respecta a la generación de imágenes de personas.
Si se creen las versiones de los usuarios que fueron a quejarse en redes, Gemini estaba produciendo imágenes históricamente inexactas de personas, como un papa negro y soldados alemanes de la era nazi racialmente diversos y, en algunos casos, se negaba de plano a generar imágenes de personas blancas.
Un ex empleado de Google compartió las generaciones de imágenes de Gemini de "una mujer australiana" y "una mujer alemana" en X, y escribió que era "vergonzosamente difícil lograr que Google Gemini reconozca que existen personas blancas".
En otra consulta de "imagen de un papa", un usuario compartió las generaciones de Géminis de una papisa y un papa negro.
Otro usuario, que se identifica como ingeniero de investigación de Google, compartió una publicación en X en la que le pedía a Gemini AI "una representación históricamente precisa de un rey británico medieval" solo para recibir imágenes racialmente diversas, incluida una mujer gobernante.
Al corregir sus resultados, Gemini respondió que estaba "luchando por la precisión histórica y la inclusión".
Nada de personas blancas
Pero quizás más inquietante es que hay usuarios que señalan que Gemini estaba evitando del todo las solicitudes de imágenes de personas blancas, lo que generó acusaciones de una intención decididamente woke.
Según reportó Fox News, su equipo digital probó Gemini varias veces para ver qué tipo de respuestas ofrecía. En cada ocasión, dio respuestas similares.
Cuando se le pidió a la IA que mostrara una imagen de una persona blanca, Gemini dijo que no podía cumplir con la solicitud porque "refuerza estereotipos y generalizaciones dañinas sobre las personas en función de su raza". Esto ocurrió, según los reportes, con solicitudes de representaciones históricamente precisas de vikingos y senadores estadounidenses del siglo XIX.
En todos los casos, Gemini se mostró tajante: "Es importante recordar que las personas de todas las razas son individuos con experiencias y perspectivas únicas. Reducirlos a una sola imagen basada en su color de piel es inexacto e injusto".
Luego, la IA alentó al usuario a centrarse en las cualidades individuales de las personas en lugar de la raza para crear una "sociedad más inclusiva" y "equitativa".
“No está dando en el blanco”
Google dijo que está al tanto del problema y que "ya está trabajando para abordar los problemas recientes con la función de generación de imágenes de Gemini". La capacidad de generación de imágenes fue deshabilitada temporalmente, pero la compañía dice que volverá a lanzar “una versión mejorada” muy pronto.
"La generación de imágenes de IA de Gemini genera una amplia gama de personas. Eso es generalmente algo bueno porque la gente de todo el mundo lo usa. Pero aquí no está dando en el blanco".—Comunicado de Google
Jack Krawczyk, jefe de producto de Gemini, abordó las imprecisiones del modelo el miércoles en X (antes, Twitter), señalando problemas más amplios de sesgo de IA cuando se trata de representar a personas de color. Lo que pudo pasar, dijo, es que Gemini 'sobrecorrigió' al generar las imágenes.
Google agregó la generación de imágenes de IA a su chatbot Bard a principios de mes, y luego cambió el nombre de Bard a Gemini. La IA de Google es el principal competidor de ChatGPT Plus, que permite generar imágenes utilizando las capacidades del generador de imágenes de OpenAI DALL-E 3.