Atención

Búsqueda avanzada
Buscar en:   Desde:
Sesgo de género en asistentes virtuales: una aproximación desde la psicología social
Travnik, Cecilia, Mandelbaum, Matias y Marchiano, Federico Agustín.
XVI Congreso Internacional de Investigación y Práctica Profesional en Psicología. XXXI Jornadas de Investigación. XX Encuentro de Investigadores en Psicología del MERCOSUR. VI Encuentro de Investigación de Terapia Ocupacional. VI Encuentro de Musicoterapia. Facultad de Psicología - Universidad de Buenos Aires, Buenos Aires, 2024.
  ARK: https://n2t.net/ark:/13683/evo3/uEk
Resumen
El presente estudio explora el sesgo de género en asistentes virtuales y su impacto, revelando que una mayoría de los participantes percibe estas tecnologías como femeninas, reflejando una tendencia a posicionar a la mujer como asistente. Un 87.2% percibe un género femenino en los asistentes, mientras que el 74.4% cree que el género de la voz no afecta la eficiencia del asistente. Sin embargo, un 76.9% de los encuestados no ha escuchado hablar del sesgo de género algorítmico, destacando la necesidad de mayor sensibilización y educación sobre el tema. Se muestra que los prejuicios implícitos y explícitos de los programadores se integran en los algoritmos, perpetuando estereotipos de género y reflejando roles tradicionales asignados a las mujeres. Estos sesgos, presentes en la configuración y el desarrollo de las tecnologías, pueden llevar a la discriminación algorítmica y amplificar desigualdades sociales. Aunque el estudio proporciona valiosa información, tiene limitaciones debido al muestreo no probabilístico por conveniencia y la administración en línea del cuestionario. La integración de perspectivas de la psicología social y el análisis de sesgos cognitivos es crucial para desarrollar tecnologías más equitativas y justas, reconociendo y mitigando los prejuicios inherentes en los sistemas informáticos. Palabras clave Sesgo de género - Prejuicio - Asistentes virtuales - Sesgo al- gorítmico ABSTRACT GENDER BIAS IN VIRTUAL ASSISTANTS: AN APPROACH FROM SOCIAL PSYCHOLOGY The present study explores gender bias in virtual assistants and its impact, revealing that the majority of participants perceive these technologies as female, reflecting a tendency to position women as assistants. 87.2% perceive a female gender in the assistants, while 74.4% believe that the gender of the voice does not affect the assistant’s efficiency. However, 76.9% of respondents have not heard about algorithmic gender bias, highlighting the need for greater awareness and education on the subject. It is shown that the implicit and explicit biases of programmers are integrated into algorithms, perpetuating gender stereotypes and reflecting traditional roles assigned to women.These biases, present in the configuration and development of technologies, can lead to algorithmic discrimination and amplify social inequalities. Although the study provides valuable information, it has limitations due to non-probability convenience sampling and the online administration of the questionnaire. Integrating perspectives from social psychology and cognitive bias analysis is crucial to develop more equitable and fair technologies, recognizing and mitigating the inherent biases in computer systems. Keywords Gender bias - Virtual assistants - Algorithmic bias - Prejudice
Texto completo
Creative Commons
Esta obra está bajo una licencia de Creative Commons.
Para ver una copia de esta licencia, visite https://creativecommons.org/licenses/by-nc-nd/4.0/deed.es.