La Inteligencia Artificial y los sesgos
A principio de año Google lanzó Gemini y se mencionó que generaba imágenes con un enfoque “woke” y fue muy criticado por eso ¿A qué se debe esa crítica?
Eso se relaciona con un fenómeno más amplio conocido como sesgos en Inteligencia Artificial. Los algoritmos de IA se entrenan con grandes volúmenes de datos, y, por ende, reproducen los patrones que encuentran en ellos. Por ejemplo, si entreno un algoritmo con fotos de perros y gatos, podría fallar si le presento un gato que no se asemeja a los ejemplos que ha visto. Esto se complica aún más cuando consideramos que ciertos grupos están subrepresentados en esos datos, lo que lleva a resultados sesgados.
Gemini, como otros modelos generativos, intenta ofrecer representaciones culturalmente diversas. Sin embargo, su enfoque para corregir los sesgos no fue bien implementado. Por ejemplo, si le pedís una imagen de un soldado alemán, la intención era generar una representación. Pero lo que ocurrió fue que la instrucción interna al algoritmo priorizaba la diversidad sobre la precisión histórica. Así, los resultados podían parecer incoherentes con la realidad, lo que llevó a críticas.
Google buscó mejorar la representación en las imágenes, pero no evaluó adecuadamente cómo sus modificaciones afectarían los resultados. Cada vez que se lanza un nuevo algoritmo, se somete a un exhaustivo análisis por parte de la comunidad para descubrir sus debilidades. Existen posturas extremas: algunos consideran que estos algoritmos son infalibles y otros que no sirven para nada.