Olvida la extraña risa. Para una familia en Portland, Oregon, un dispositivo Amazon Echo no se ha convertido en un tema de risa. Uno de los altavoces inteligentes más vendidos en su hogar no solo grabó sus conversaciones, sino que también envió esas grabaciones a alguien sin el permiso de la familia. El supuesto episodio hace que te preguntes si compañías como Amazon toman en serio la privacidad cuando se trata de dispositivos domésticos inteligentes.
Según KIRO-TV, la familia de Oregon amaba los dispositivos de Amazon y los usaba para controlar el calor, las luces y el sistema de seguridad de su hogar. Sin embargo, entonces sucedió algo extraño.
Según Danielle, que no quería que KIRO-TV usara su apellido, alguien la llamó a su casa a principios de mayo y le dijo que desconectara sus dispositivos Alexa porque "estás siendo pirateada". Explicó que había recibido archivos de audio de grabaciones desde el interior de la casa de Danielle. La persona que estaba al otro lado del teléfono no era una extraña, sino una de las empleadas de su esposo. Su información personal estaba en la lista de contactos de Alexa..
Entonces qué pasó?
En una declaración por correo electrónico a The Washington Post, que recogió la historia de KIRO-TV, Amazon explicó que el Echo probablemente se despertó cuando escuchó una palabra que sonaba como "Alexa".
Desde allí:
La conversación posterior se escuchó como una solicitud de "enviar mensaje". En ese momento, Alexa dijo en voz alta '¿A quién?' En ese momento, la conversación de fondo se interpretó como un nombre en la lista de contactos de los clientes..
Concluyeron: "Por improbable que sea esta serie de eventos, estamos evaluando opciones para hacer que este caso sea aún menos probable".
Esta no es la primera vez que el asistente de voz de Amazon ha sido acusado de escuchar a personas sin su permiso. Se supone que los dispositivos inteligentes de Amazon deben grabar audio solo después de que un usuario emita un comando de voz, conocido como la "palabra de activación". Sin embargo, en abril, los investigadores descubrieron una falla en el asistente de voz de Alexa que permitió que el dispositivo continuara escuchando y grabando. Después de escuchar a los investigadores, Amazon solucionó la vulnerabilidad.
La mejor manera de garantizar que Alexa, Siri, Google Home o cualquier otro asistente de voz no grabe su conversación es apagar el dispositivo cuando no esté en uso. De lo contrario, siempre existe la posibilidad de que te graben.
No obstante, la historia mencionada aquí suena extraña, en el mejor de los casos. No estoy diciendo que no sucedió, pero parece que Alexa tuvo que saltar a través de un número amenazante de aros para hacer lo que la familia dice que hizo. Además, incluso la explicación de Amazon suena más que razonable, ¿no crees?
¿Crees en esta historia? Háganos saber en los comentarios a continuación.