17 de febrero de 2020. notifications
menu desktop_windows
Finanzas

TEMEN QUE IA amenaza la privacidad

HAY UN DEBATE SI SE PONE EN RIESGO LA INFORMACIÓN DE LA PERSONA

AGENCIAS
CIUDAD DE MÉXICO, martes 14 de agosto 2018, actualizada 5:05 pm


Enlace copiado

El objetivo de la Inteligencia Artificial (IA) es facilitar la vida de los usuarios. Pero el que un asistente inteligente, como Alexa de Amazon, escuche a un usuario en la intimidad de su casa estar planeando unas vacaciones en familia y, a partir de ello, comience a enviarle información de viajes, ¿es una violación a su privacidad o la mejor herramienta para concretar sus planes?

Hoy la tecnología con IA es mejor que los humanos en tareas como detectar tumores, lo que, por supuesto, es una ventaja para la humanidad. Sin embargo, hay quien opina que el desarrollo de estos sistemas está poniendo en riesgo la información de los usuarios.

Ranga Yogeshwar, periodista europeo especialista en ciencia y tecnología, expone que el problema radica en que, pese a que recién estamos empezando a entender cómo funciona el aprendizaje de máquina y la IA, ya la usamos en sistemas como el reconocimiento facial en el iPhone X o en los asistentes como Siri y Google que conocen todo de nosotros: a dónde vamos, qué sitios visitamos y las personas con las que más compartimos.

"La máquina funciona pero no entendemos cómo. El reto no es tecnológico, es social. En pruebas como la llamada que hizo Google en su conferencia para desarrolladores en donde su asistente inteligente realizó una cita a un salón de belleza, para mí hay una falta de ética. De pronto, hace un sonido 'mm-hm', una expresión humana que solo debería ser humana, además necesitamos saber que estamos hablando con una máquina, de otra manera podríamos ser engañados" advierte Yogeshwar, reconocido como periodista científico del año y autor de Rompecabezas de la vida cotidiana.

Aunque acepta que hay grandes oportunidades alrededor de la IA, lo que más preocupa al especialista es la posibilidad de perder el control sobre los datos personales. "Hay que pensar en los alcances. Por ejemplo si una persona está leyendo en Internet, la cámara detecta sus ojos para saber cuándo cambiar de páginas, pero también registra la dilatación de la pupila para conocer sus emociones y modificar la historia y hacerla más adictiva, de manera que el libro va a estar hecho para ti. Si detecta que tienes gripa, de pronto el personaje también. Puede decirte cosas de ti, de tu salud. Hay que reflexionar si de verdad queremos entregar estos datos, si necesitamos este tipo de tecnología cuando hay población en el mundo que no tiene acceso a agua. Muchos se van a quedar en el camino".

Por supuesto, no todos están de acuerdo en el peligro de dejar información personal en manos de la IA. Norberto Andrade, privacy and public policy manager en Facebook, asegura que esta tecnología puede programarse para interpretar sentimientos y, a partir de ello, por ejemplo, prevenir el suicidio, sin llegar a comprometer la privacidad del usuario.

Sin embargo el ejecutivo acepta que en la programación de la IA se tienen que considerar valores humanos. "Es como enseñar a los niños, no solo hay que brindarles conocimientos, sino valores, porque muchos piensan que la IA no está asociada con los humanos, pero el machine learning se entrena con datos humanos, y refleja lo que somos para bien o para mal; hay que garantizar que proteja a la gente".

Agregó que Facebook puede ser una herramienta importante en el desarrollo de los algoritmos inteligentes pues, con más de 2 mil 100 millones de usuarios en todo el mundo, podrían ofrecer un punto de vista muy diverso a los entrenadores de IA.

Con FBLearner Flow, Facebook permite a los desarrolladores crear nuevas experiencias para la red social de la mano de la IA, iniciativa que no solo busca llamar la atención de tecnólogos sino de filósofos e historiadores.

TAGS
RELACIONADAS
COMENTA ESTA NOTICIA
Cargando comentarios...
Cargando más noticias...
Cargando tendencia...