Objetivo: Establecer recomendaciones para que los prosumidores efectúen un uso ético de estas herramientas evitando, de esta forma, resultados que caigan en estereotipos de clase, raza y/o género.
Método: Análisis del material documental desarrollado por distintas entidades: instituciones internacionales (UNESCO y Conuncil of Europe) y empresas desarrolladoras de herramientas de IA (OpenAI, Google, Microsoft y Anthropic).
Resultado: La IA puede perpetuar estereotipos ya que emplea datos que reproducen un contexto donde las minorías y las mujeres están infrarrepresentadas. Las principales corporaciones afirman haber desarrollado códigos de conducta y autorregulación. Esta gobernanza concuerda con las recomendaciones internacionales y rige su comportamiento, los protege de responsabilidades y basa su RSC. Incluyen recomendaciones para los usuarios en los procesos de uso de las herramientas.
Conclusiones: Aún no es posible evitar totalmente los sesgos pero es recomendable que los usuarios detecten las estereotipos y los minimicen. La autorregulación contribuye a contenidos menos discriminatorios, además de incorporar a mujeres y minorías como desarrolladores. Plantean códigos de conductas para detectar contenidos inapropiados. Los hallazgos son útiles para fomentar la perspectiva crítica y poner el foco en el papel que los usuarios, a los que se ofrecen recomendaciones, tienen en un proceso en el que el uso que se haga de las herramientas resulta fundamental.