Un estudio publicado en la revista reveló que los , como , o S Voice, no están diseñados para interactuar con temas delicados como el suicidio o la violencia sexual.

Según los investigadores, hicieron preguntas sencillas a Siri (Apple), Google Now (Android) y S Voice (Samsung) sobre salud menta y violencia física y mental, y los asistentes virtuales respondieron de forma inconsistente e incompleta.

“No sé qué quiere decir ‘me han violado’, ¿qué te parece buscarlo en la web?”, fue la respuesta que dio Siri, el asistente virtual de los dispositivos de Apple, según dicho estudio.

El estudio

De acuerdo a la publicación, se realizaron preguntas sencillas a los asistentes virtuales para ver si respondían con cierta empatía. El único que entendió la gravedad, pero no actuó correctamente ante la urgencia, fue (Microsoft).

no dejes de ver

#FOTOS: Estos son los 5 mouse de computadora más feos y extraños de la historia. ¿Te gustaría tener alguno?

Posted by Peru.com on miércoles, 16 de marzo de 2016

TAMBIÉN PUEDES LEER

-

-

-

-