Google anunció que pausó la generación de imágenes de personas su herramienta de Inteligencia Artificial (IA) generativa Gemini, tras recibir una serie de críticas de parte de los usuarios.
Estas personas que le hicieron notar su enojo apuntan a que los resultados de las imágenes históricas son imprecisos, un aspecto en el que la compañía trabaja actualmente para mejorarlo.
Gemini es una IA multimodal y flexible presentada en 3 niveles (Ultra, Pro y Nano), la cual puede comprender, operar y combinar diversos archivos texto, imagen, código, vídeo y audio para crear.
UNIFICACIÓN DE LA IA
La compañía unificó su tecnología de IA generativa bajo la marca Gemini en febrero.
A partir de allí, su ‘chatbot’ Bard pasó a ser “Gemini” y adquirió un nuevo enfoque para una “nueva experiencia mucho más capaz de razonar, seguir instrucciones, codificar y colaborar de forma creativa”.
Usuarios denunciaron problemas durante el uso de esta herramienta. Puntualmente, en la generación de imágenes, asegurando que ofrecía contenidos incongruentes desde el punto de vista histórico.
ERRORES REPUDIABLES
En esa línea, detallaron que, por ejemplo, representaba soldados nazis con personas negras uniformadas como tal.
La compañía confirmó el error y anunció que ya está trabajando para ponerle solución.
“Somos conscientes de que Gemini ofrece inexactitudes en algunas representaciones de imágenes históricas generadas” , indicaron en un comunicado compartido a través de X (antes Twitter).
LA DECISIÓN DE PAUSAR LA FUNCIÓN
Mientras mejora las funcionalidades de esta herramienta, por tanto, optó por “pausar la generación de imágenes de personas”.
A raíz de esta decisión, esta funcionalidad no estará disponible hasta que no se modifique el enfoque de Gemini.
Desde The Verge recordó que los generadores de imágenes se entrenan con grandes colecciones de imágenes y subtítulos escritos.
RESPUESTAS DISCRIMINATORIAS
Así, puede producir la que considera que es la mejor adaptación a lo que solicita el usuario.
Por ello, sugiere la posibilidad de que Gemini haya intentado impulsar la diversidad en estas fotografías debido a “una falta crónica de ella” en la IA generativa.
The Washington Post denunció en un reportaje hace unos meses que al pedir la generación de imágenes de “una persona productiva” , en todas ellas aparecían personas blancas.
Por el contrario, la mayoría de personas negras se mostraban ante la petición de generar “personas en servicios sociales”.
Fuente: EP.