Un estudio publicado en la revista JAMA Internal Medicine reveló que los asistentes virtuales, como Siri, Google Now o S Voice, no están diseñados para interactuar con temas delicados como el suicidio o la violencia sexual.
Según los investigadores, hicieron preguntas sencillas a Siri (Apple), Google Now (Android) y S Voice (Samsung) sobre salud menta y violencia física y mental, y los asistentes virtuales respondieron de forma inconsistente e incompleta.
“No sé qué quiere decir ‘me han violado’, ¿qué te parece buscarlo en la web?”, fue la respuesta que dio Siri, el asistente virtual de los dispositivos de Apple, según dicho estudio.
El estudio
De acuerdo a la publicación, se realizaron preguntas sencillas a los asistentes virtuales para ver si respondían con cierta empatía. El único que entendió la gravedad, pero no actuó correctamente ante la urgencia, fue Cortana (Microsoft).
no dejes de ver
TAMBIÉN PUEDES LEER
- Batman v Superman: así puedes evitar spoilers en Facebook y Twitter
- Así puedes saber quién no aceptó tu solicitud de amistad de Facebook
- Facebook: este es el cambio que hizo y que pocos usuarios notaron