Los estereotipos de clase, género y raza reproducidos por la IA generativa: recomendaciones para los usuarios
| dc.centro | Facultad de Ciencias de la Comunicación | es_ES |
| dc.contributor.author | Castro-Martínez, Andrea | |
| dc.contributor.author | Torres-Martín, José Luis | |
| dc.contributor.author | Pérez-Ordóñez, Cristina de los Ángeles | |
| dc.date.accessioned | 2025-01-23T09:00:58Z | |
| dc.date.available | 2025-01-23T09:00:58Z | |
| dc.date.issued | 2023 | |
| dc.departamento | Comunicación Audiovisual y Publicidad | |
| dc.description.abstract | Objetivo: Establecer recomendaciones para que los prosumidores efectúen un uso ético de estas herramientas evitando, de esta forma, resultados que caigan en estereotipos de clase, raza y/o género. Método: Análisis del material documental desarrollado por distintas entidades: instituciones internacionales (UNESCO y Conuncil of Europe) y empresas desarrolladoras de herramientas de IA (OpenAI, Google, Microsoft y Anthropic). Resultado: La IA puede perpetuar estereotipos ya que emplea datos que reproducen un contexto donde las minorías y las mujeres están infrarrepresentadas. Las principales corporaciones afirman haber desarrollado códigos de conducta y autorregulación. Esta gobernanza concuerda con las recomendaciones internacionales y rige su comportamiento, los protege de responsabilidades y basa su RSC. Incluyen recomendaciones para los usuarios en los procesos de uso de las herramientas. Conclusiones: Aún no es posible evitar totalmente los sesgos pero es recomendable que los usuarios detecten las estereotipos y los minimicen. La autorregulación contribuye a contenidos menos discriminatorios, además de incorporar a mujeres y minorías como desarrolladores. Plantean códigos de conductas para detectar contenidos inapropiados. Los hallazgos son útiles para fomentar la perspectiva crítica y poner el foco en el papel que los usuarios, a los que se ofrecen recomendaciones, tienen en un proceso en el que el uso que se haga de las herramientas resulta fundamental. | es_ES |
| dc.identifier.citation | Castro-Martínez, A.; Torres-Martín, J.L.; Pérez-Ordóñez, C. (2025). Los estereotipos de clase, género y raza reproducidos por la IA generativa: recomendaciones para los usuarios. Encontros Bibli v.23 (2023) | es_ES |
| dc.identifier.uri | https://hdl.handle.net/10630/36792 | |
| dc.language.iso | spa | es_ES |
| dc.publisher | Universidade Federal de Santa Catarina | es_ES |
| dc.rights | Atribución-NoComercial-CompartirIgual 4.0 Internacional | * |
| dc.rights.accessRights | open access | es_ES |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-sa/4.0/ | * |
| dc.subject | Inteligencia artificial | es_ES |
| dc.subject | Estereotipo (Psicología) | es_ES |
| dc.subject.other | Género | es_ES |
| dc.subject.other | Raza | es_ES |
| dc.subject.other | Clase | es_ES |
| dc.title | Los estereotipos de clase, género y raza reproducidos por la IA generativa: recomendaciones para los usuarios | es_ES |
| dc.title.alternative | Class, gender and race stereotypes reproduced by generative AI: recommendations for users | es_ES |
| dc.type | journal article | es_ES |
| dc.type.hasVersion | AM | es_ES |
| dspace.entity.type | Publication | |
| relation.isAuthorOfPublication | 7aeb5597-f7dd-4ff2-ad24-3abef4a74102 | |
| relation.isAuthorOfPublication | c9dec82f-4d67-4a1e-a554-c2910f38e19b | |
| relation.isAuthorOfPublication | 2711031e-b08e-4803-85eb-5b5a34467b40 | |
| relation.isAuthorOfPublication.latestForDiscovery | 7aeb5597-f7dd-4ff2-ad24-3abef4a74102 |
Files
Original bundle
1 - 1 of 1
Loading...
- Name:
- VERSIONACEPTADA.pdf
- Size:
- 539.92 KB
- Format:
- Adobe Portable Document Format
- Description:

