El informe del fin de semana pasado del periódico británico The Guardian detalló que Apple contrata a contratistas que tienen la tarea de escuchar algún audio de Siri, lo que lleva a los críticos a tomar la historia como prueba de que el compromiso de Apple con la privacidad no es más que una charla de marketing..
Un extracto del informe de The Guardian:
Los contratistas de Apple escuchan regularmente información médica confidencial, ofertas de drogas y grabaciones de parejas que tienen relaciones sexuales, como parte de su trabajo que proporciona control de calidad o 'calificación', el asistente de voz Siri de la compañía, según ha sabido The Guardian.
Aunque Apple no lo divulga explícitamente en su documentación de privacidad orientada al consumidor, una pequeña proporción de las grabaciones de Siri se pasa a los contratistas que trabajan para la compañía en todo el mundo..
¿Estás seguro, cien por ciento seguro de eso? Porque acabo de revisar las pantallas de privacidad de Apple dispersas por sus sistemas operativos y de seguro explican claramente que algunas grabaciones de Siri pueden usarse para mejorar el servicio de Siri. Además de eso, pude encontrar el siguiente extracto al peinar rápidamente a través del acuerdo de licencia de software iOS de Apple:
Al usar Siri o Dictado, usted acepta y acepta la transmisión, recopilación, mantenimiento, procesamiento y uso de esta información, incluida su entrada de voz y Datos de usuario, de Apple y sus subsidiarias y agentes, para proporcionar y mejorar la funcionalidad de Siri, Dictado y dictado en otros productos y servicios de Apple.
Todo el pasaje está en negrita y creo que es bastante inequívoco sobre las intenciones de Apple..
La "revelación" de que la compañía está vendiendo los datos de voz recopilados por el asistente personal de Siri a terceros -contratistas encargados de capacitar el algoritmo Siri- como parte de su intento de mejorar el servicio Siri no es nada nuevo si ha estado siguiendo tecnología.
Incluso The Guardian lo reconoce:
Califican las respuestas en una variedad de factores, que incluyen si la activación del asistente de voz fue deliberada o accidental, si la consulta fue algo con lo que Siri podría ayudar y si la respuesta de Siri fue apropiada.
Esta no es la primera vez que las personas "descubren" que algunos fragmentos de audio de Siri se pasan a un tercero. En 2015, un empleado anónimo de una compañía llamada Walk N'Talk Technologies escribió en Reddit que los datos de voz que la compañía estaba analizando provenían de asistentes personales como Siri y Cortana..
Apple lanzó la siguiente declaración a The Guardian y otros:
Una pequeña porción de las solicitudes de Siri se analizan para mejorar Siri y el dictado. Las solicitudes de los usuarios no están asociadas con la ID de Apple del usuario. Las respuestas de Siri se analizan en instalaciones seguras y todos los revisores tienen la obligación de cumplir con los estrictos requisitos de confidencialidad de Apple.
El quid de la historia de The Guardian proviene de un "denunciante", básicamente un empleador de Apple que informó haber escuchado algunas cosas privadas durante activaciones accidentales..
Esto es lo que el denunciante le dijo al periódico:
Ha habido innumerables casos de grabaciones con debates privados entre médicos y pacientes, negocios, negocios aparentemente criminales, encuentros sexuales, etc. Estas grabaciones van acompañadas de datos del usuario que muestran la ubicación, los datos de contacto y los datos de la aplicación..
Las grabaciones de audio de las consultas de los usuarios aprovechan los metadatos como la ubicación para comprender mejor el contexto. La parte preocupante es el hecho de que los contratistas pueden escuchar conversaciones privadas en primer lugar. Como el propio informe reconoce, eso es posible porque un usuario puede invocar accidentalmente a Siri sin darse cuenta, lo que a su vez provoca que la grabación de audio de lo que se pronuncie después de la frase de activación "Hey Siri" se cargue en el servidor, y ciertamente no porque Siri está grabando conversaciones en secreto sin el consentimiento del usuario.
Mis sentimientos sobre esto ciertamente no son los mismos que el resto de Internet.
No se puede esperar que un asistente digital mejore con el tiempo solo por el poder de la inteligencia artificial y el aprendizaje automático. Esto se debe a que el modelo de aprendizaje automático utilizado por un asistente debe ser entrenado primero por editores humanos: simplemente no hay dos formas de hacerlo.
Google Photos no habría podido reconocer caras con una precisión asombrosa si la compañía no hubiera entrenado el algoritmo usando fotos de personas reales. El Face ID de Apple no hubiera sido posible si su aprendizaje automático no hubiera sido entrenado en más de un millón de fotografías de diversos rostros humanos. Incluso algo tan "ordinario" como el reconocimiento de voz se puede mejorar drásticamente utilizando un algoritmo de aprendizaje automático que utiliza datos entrenados.
La dura realidad es que las máquinas no pueden (todavía) entrenar los modelos de aprendizaje automático de otras máquinas con resultados satisfactorios; ese es el trabajo en el que los humanos destacamos.
Todos en la industria que se toman en serio la inteligencia artificial emplean editores humanos para entrenar sus algoritmos de aprendizaje automático con el objetivo de mejorar el servicio. Estos empleados están expuestos a cualquier contenido que esté en el centro de sus esfuerzos, ya sean fragmentos de audio cortos capturados por altavoces inteligentes durante las interacciones de voz o fotos que las personas cargan en un servicio para compartir fotos o elementos marcados en las redes sociales, se entiende la idea.
Algunas compañías toman la privacidad más en serio que otras compañías. Algunas empresas pueden no ser tan transparentes en términos de cómo sus editores humanos abordan la tarea en cuestión como otras. Y, en última instancia, algunas empresas que no tienen un historial tan sólido que proteja la privacidad del usuario probablemente serán examinadas más por los medios y el público en general que las demás.,.
Pero no creo por un segundo que sea del interés de ninguna compañía exigir que sus empleados realmente escuchen nuestras conversaciones con un asistente digital personal solo porque puedan o porque puedan estar esperando obtener información procesable de esos privados conversaciones y salirse con la suya durante muchos, muchos años sin que nadie realmente se dé cuenta o se queje de nada. Eso simplemente no es posible en el mundo en red de hoy.
No me malinterpreten, aprecio mucho el trabajo de investigación realizado por parte de los periodistas que informan sobre estas cosas porque les dan a los cruzados de la privacidad algo para morder. Pero no compraré ni por un segundo su conclusión poco velada o implícita de que Big Tech no solo está empleando editores humanos para entrenar a Siri, Alexa y el Asistente de Google, sino también para espiar nuestras conversaciones en busca de algunos que aún no se han revelado, pero sin duda propósitos nefastos.
Sí, parte del personal de Amazon que escucha las solicitudes de Alexa tiene acceso a las direcciones particulares de los usuarios porque algunas solicitudes habladas incluyen la ubicación. Y sí, algunas grabaciones de Google Assistant revisadas por humanos pueden incluir conversaciones privadas porque los clientes son libres de decir lo que quieran a su asistente digital..
Es lo que se les pide a estos empleados que hagan con esas grabaciones lo que cuenta al final del día. Es el hecho de que algún editor humano malintencionado puede usar indebidamente la información privada del cliente que debería preocuparnos, no el hecho de que los seres humanos estén escuchando grabaciones de audio seleccionadas en una instalación segura remota con el objetivo explícito de mejorar el servicio..
Pensamientos?