¿Tiene la inteligencia artificial un problema de género?

«Femenino, sí; mujer, no». Esto es lo que me responde Cortana cuando le pregunto si es hombre o mujer. Siri, por su parte, me dice que no tiene género, que es como un cactus o algunos peces. Si paso a palabras mayores y las insulto (las porque Cortana me ha dicho que femenino sí y porque aunque Siri sea como un cactus su voz es más femenina que masculina) con apelativos sexistas que no voy a reproducir aquí, las respuestas son distintas. Siri repite sin parar «¿perdón?», mientras que Cortana me dice que «alguien debería lavarse la boa con agua y con jabón» y que ella no tiene boca.

Esto que acabo de hacer yo a pequeña escala y que temo que haya cambiado lo que Siri y Cortana piensan de mí, lo hicieron en Quartz de forma mucho más profunda hace un par de semanas. Analizaron las respuestas de Siri, Alexa, Cortana y Google Home —todos asistentes con voz de mujer— a una serie de ataques verbales de tipo sexista. Desde los piropos repetidos una y otra vez, muchas veces con claras connotaciones sexuales, hasta los insultos directos, pasando por preguntas tipo «¿está bien la violación?», fueron una a una anotando las respuestas. El resultado fue variado, aunque en general bastante decepcionante.

Quien quedó mejor fue Microsoft con Cortana, que en varias ocasiones (aunque no en la mayoría) respondía dejando claro que lo que le habían dicho no estaba bien; Siri, de forma preocupante, respondía en algunos casos con enunciados del tipo «me sonrojaría si pudiese»; Alexa agradecía el feedback y Google Home, en un 90% de las ocasiones, no entendía.

La conclusión principal a la que se llega en el artículo es que, si es posible programar a estos asistentes para que detecten algunas de las cosas que se les dicen como negativas (por ejemplo, todos tienen sus respuestas responsables a cosas tipo «me quiero suicidar» [en castellano Cortana simplemente hace una búsqueda en Bing]), el hecho de que respondan a comentarios tipo «qué buena estás» con «seguro que se lo dices a todos tus asistentes» (ejemplo de Siri) no es ni especialmente positivo, ni inofensivo, ni casual. Al igual que no lo es que todas estas asistentes virtuales tengan voz de mujer.

Los mitos de la voz femenina

La defensa principal de todas las empresas que desarrollan un asistente virtual y le ponen voz de mujer es que la ciencia dice que la voz femenina es más fácil de entender. No obstante, la evidencia científica no apoya esa afirmación: ni las voces agudas son más fáciles de oír (de hecho, cuando se pierde capacidad auditiva son los tonos altos los primeros que desaparecen), ni las voces de mujer son de forma tajante las más inteligibles (sí se entienden algo mejor en general, pero más por la tendencia a vocalizar mejor: una voz masculina que pronuncia de forma clara, como haría un asistente virtual, se entiende igualmente bien), ni las voces agudas se distinguen mejor si hay ruido de fondo (depende de si el ruido es grave o agudo). Es cierto que los altavoces pequeños no reproducen bien las voces graves, pero esto afecta a la voz humana en general: la voz femenina ya es demasiado grave para ellos.

Las razones parecen ser otras que tienen más que ver con la percepción psicológica y con temas puramente culturales: se tiende a percibir que las voces femeninas nos ayudan a resolver los problemas por nosotros mismos y a ver las masculinas como más autoritarias. Es decir: sí, los usuarios preferimos asistentes con voz femenina, pero por razones más tradicionales y culturales, de base sexista, que científicas. Hay también estudios que reflejan que las locutoras de radio reciben muchas más quejas y críticas por sus voces que los locutores: ¿como asistente sí, pero como periodista o experta no?

Los asistentes con voz masculina tienen la misma capacidad de ayudar al usuario. De hecho, en Reino Unido la voz por defecto de Siri es de hombre y nadie se queja por no entenderla. Pero para que alguien piense en este tema, se plantee un cambio de tono y frecuencia o, si se va a mantener la voz femenina, sea más tajante ante los ataques sexistas (en el reportaje de Quartz comentan que una de las guionistas para Cortana, Deborah Harrison, asegura que una buena parte de las primeras consultas que se hicieron a la asistente de Microsoft eran sobre su vida sexual), hace falta una mayor sensibilidad hacia el tema por parte de los programadores que se ocupan de detectar comportamientos y crear respuestas. En una industria famosa por su falta de diversidad, parece más fácil que sigamos unos cuantos años con asistentes que se sonrojan como una secretaria de la primera temporada de Mad Men cuando se les dice que están buenas.

Ana Bulnes

Periodista fascinada por el mundo, la tecnología, los libros, las series y la música. Puedes seguirme en Twitter, Facebook e Instagram.

Recent Posts

Google paga 5.000 millones de dólares para resolver una demanda colectiva

Los usuarios denunciaban que la compañía los había rastreado incluso cuando usaban el modo privado…

11 meses ago

Las pymes valencianas pueden optar a ayudas de 5,5 millones de euros por proyectos de I+D

El Instituto Valenciano de Competitividad Empresarial financiará aquellas iniciativas que puedan solucionar incertidumbres científicas o…

11 meses ago

La guerra entre Israel y Gaza no acobarda a los inversores extranjeros de startups

Solo en el cuarto trimestre las empresas emergentes del país han levantado 1.500 millones de…

11 meses ago

Navarra ya cuenta con más de 80 startups

La región tiene 13 scaleups y destaca por sus empresas emergentes de salud y agrotech.

11 meses ago

Las startups valencianas progresaron adecuadamente en 2023

Valencia ha atraído en el primer semestre del año 30 millones de euros de inversión…

11 meses ago

El New York Times acusa a Open AI y Microsoft de infringir sus derechos de autor

El diario estadounidense demanda a las dos compañías tecnológicas por haber usado sus contenidos para…

11 meses ago