Cargando
.

Lee la revista aquí

Alexa, la asistente virtual de Amazon, escucha y comparte cuando estás teniendo relaciones sexuales, tu historial médico, entre otras cosas.

 

El personal de Amazon revisa miles de grabaciones de audio hechas por Alexa cada día, incluidos fragmentos de parejas discutiendo y teniendo relaciones sexuales, afirma una investigación realizada por The Sun, lo que ha desencadenado un escándalo en el Reino Unido.

La  popular asistente virtual capturó accidentalmente los clips, confundiendo los ruidos de los comandos que debería escuchar, y los envió para su análisis. El personal de Amazon revisa una de cada quinientas grabaciones hechas por Alexa, ya sea por órdenes deliberadas a la asistente o grabaciones accidentales.

Amazon cuenta con un equipo de habla inglesa que monitorea miles de grabaciones de Alexa diariamente en Bucarest, Rumania, afirma The Sun, junto con configuraciones similares en Boston, Costa Rica e India.

Los miembros de este equipo supuestamente tienen acceso a múltiples momentos personales capturados accidentalmente por el asistente virtual, incluidas discusiones, conversaciones sobre dinero, conversaciones cándidas sobre problemas médicos y los sonidos de los usuarios de Alexa mientras  sostienen relaciones sexuales.

“Parece que parejas que tienen relaciones sexuales, e incluso lo que parecía un ataque sexual, han sido escuchadas por el personal”, dijo un ex analista de Amazon a The Sun.

(Foto: Amazon)

“Hubo momentos en los que escuché parejas discutiendo en casa y otros cuando los niños intentaban enseñarle a Alexa a maldecir”.

“Nos dijeron que nos centráramos en los comandos de Alexa, pero era imposible no escuchar otras cosas,” afirmó el ex analista. “Amazon nos dijo que todos los que estábamos escuchando habían dado su consentimiento, así que nunca sentí que estaba espiando”.

El reporte de The Sun asegura que Alexa no es la única, porque la asistente virtual de Apple hace lo mismo. Es decir, Siri también registra y monitorea las grabaciones de manera similar, activándose  con el simple sonido de un cierre, especialmente en los relojes inteligentes deApple. En Siri, “ha habido innumerables casos de grabaciones con discusiones privadas entre médicos y pacientes, negocios, negocios criminales, encuentros sexuales, etc.”, reveló una fuente al diario inglés.

La revelación es un recordatorio del alcance de la información personal que la empresa de tecnología tiene sobre sus usuarios.

Fuente: codigoespagueti.com