Un Roomba fotografió a una mujer en el inodoro y terminó en las redes sociales. Ahora A.I. Los expertos tienen esta advertencia sobre traer tecnología a su hogar

Una mujer que se inscribió para ayudar a probar una nueva versión de una aspiradora robótica no esperaba fotos de ella tomadas en el inodoro para terminar en las redes sociales. Pero a través de un tercero. Fuga, eso es lo que sucedió.

El juicio en 2020 fue de lado después de que Irobot, que produce aspiradoras robóticas autónomas de Roomba, las aspiradoras robóticas informadas y los voluntarios pagados para ayudar a la compañía a recopilar datos para ayudar a mejorar un nuevo modelo de las máquinas utilizándolas en sus hogares. Irobot dijo que hizo que los participantes sean conscientes de cómo se utilizarían los datos e incluso colocaron los modelos con las pestañas “Grabación en el proceso”.

Pero a través de una fuga en un socio externo, con el que Irobot ha cortado los lazos y está investigando, las imágenes privadas terminaron en las redes sociales.

Las máquinas no son las mismas que los modelos de producción que ahora están en los hogares de los consumidores, la compañía se apresuró a agregar, diciendo que “toma muy en serio la privacidad y la seguridad de los datos, no solo con sus clientes sino en todos los aspectos de su negocio. , incluida la investigación y el desarrollo “.

creciente desconfianza

Como A.I. continúa creciendo tanto en los sectores profesionales como privados, la desconfianza de la tecnología también ha aumentado debido a violaciones de seguridad y falta de comprensión.

Un estudio de 2022 por foro económico mundial demostró que solo la mitad de las personas entrevistaron a compañías de confianza que usan A.I. Por mucho que confíen en las empresas que no.

Sin embargo, existe una correlación directa entre las personas que confían en A.I. y aquellos que creen que entienden la tecnología.

Esta es la clave para mejorar la experiencia y la seguridad de los usuarios en el futuro, dijo Mhairi Aitken, miembro de ética en el Instituto Alan Turing, el establecimiento nacional del Reino Unido para la Ciencia de Datos y la Inteligencia Artificial.

“Cuando la gente piensa en A.I. Piensan en los robots y el terminador: piensan en la tecnología con conciencia y sensibilidad ”, dijo Aitken.

“A.I. no tiene eso. Está programado para hacer un trabajo y eso es todo lo que hace, a veces es una tarea muy nicho. Muchas veces cuando hablamos de A.I. Usamos el ejemplo de niño pequeño: que A.I. necesita ser enseñado todo por un humano. Lo hace, pero A.I. Solo lo que le dice que haga, a diferencia de un humano, no hace berrinches y decide qué quiere probar en su lugar “.

.

a.i. se usa ampliamente en la vida cotidiana del público, desde decidir qué correos electrónicos deben ir a sus carpetas de spam a su teléfono respondiendo una pregunta con su asistente personal incorporado.

Sin embargo, son los productos de entretenimiento como los altavoces inteligentes que las personas a menudo no se dan cuenta de que usan inteligencia artificial, dijo Aitken, y estos podrían entrometerse en su privacidad.

Aitken agregó: “No es como si tus altavoces estén escuchando, no lo son. Lo que podrían hacer es retomar los patrones de palabras y luego alimentar esto a un desarrollador en un lugar lejano que está trabajando en un nuevo producto o servicio para el lanzamiento.

“A algunas personas no les importa eso, algunas personas sí, y si eres una de esas personas, es importante estar al tanto de dónde tienes estos productos en tu hogar, tal vez no lo quieras en tu baño o dormitorio. No se debe a si confías en A.I., se trata de si confías en las personas detrás de esto “.

Does A.I. ¿Necesita ser regulado?

Escribir en Financial Times , The International Director de políticas en el Centro de Políticas Cibernéticas de la Universidad de Stanford, Marietje Schaake , dijo que con las esperanzas de Regular A.I. “Parece una misión imposible”, agregar el panorama tecnológico se verá “notablemente similar” a fines de 2023.

La perspectiva es un poco más optimista para Europa después de que la Unión Europea anunció el año pasado que crearía un amplio estándar para regular o prohibir ciertos usos de A.I.

Los problemas como la violación de Roomba son un ejemplo de por qué la legislación debe ser proactiva, no reactiva, Aitken agregó: “En este momento estamos esperando que las cosas sucedan y luego actuando desde allí. Necesitamos adelantarnos y saber dónde A.I. va a pasar dentro de cinco años “.

Esto requeriría la aceptación de competidores tecnológicos en todo el mundo, sin embargo, Aitken dice que la mejor manera de combatir esto es atraer a las personas calificadas a trabajos de regulación pública que tendrán el conocimiento de analizar lo que está sucediendo en el futuro. << /P>

Ella agregó conciencia sobre A.I. no se trata solo de los consumidores: “Sabemos que TS