La IA y usted: sorber zoom, ajustarse las zapatillas para correr, encontrar datos de entrenamiento
HogarHogar > Blog > La IA y usted: sorber zoom, ajustarse las zapatillas para correr, encontrar datos de entrenamiento

La IA y usted: sorber zoom, ajustarse las zapatillas para correr, encontrar datos de entrenamiento

Jul 28, 2023

Póngase al día sobre el mundo de la IA en rápida evolución con nuestro resumen de los desarrollos de la semana.

Zoom fue noticia esta semana, y no solo porque la empresa de videoconferencias que ayudó a popularizar el trabajo remoto decidió que muchos de sus empleados deben regresar a la oficina dos días a la semana (una nueva política que inspiró muchos memes).

La noticia que lo coloca en el primer lugar en este resumen de IA es la reacción después de que Hacker News descubriera que "una actualización de los términos y condiciones de Zoom en marzo pareció esencialmente darle a la compañía rienda suelta para absorber voz, video y otros datos, y introducirlo en sistemas de aprendizaje automático", señaló Wired.

Los acuerdos de términos de servicio son conocidos por obligarlo a renunciar a algunos de sus derechos o información personal al ocultar detalles como este en la letra pequeña. Pero incluso los que no son expertos en inteligencia artificial se molestaron con el enfoque de Zoom de tomarlo todo cuando se trata de información que comparten en conversaciones los millones de personas que usan su software.

Entonces, a principios de esta semana, la directora de productos de Zoom, Smita Hasham, dijo que la compañía revisó sus términos de servicio y prometió a los usuarios que "no utilizará ningún audio, video, chat, pantalla compartida, archivos adjuntos u otras comunicaciones como contenido del cliente ( como resultados de encuestas, pizarra y reacciones) para entrenar modelos de inteligencia artificial de Zoom o de terceros".

Pero puede que así sea en el futuro; espero que si da su consentimiento. El consentimiento es la palabra operativa hoy en día, cuando autores, como Sarah Silverman y Margaret Atwood, critican a los fabricantes de chatbots de IA, incluidos OpenAI y Google, por absorber su contenido protegido por derechos de autor sin permiso ni compensación para entrenar sistemas de IA y mientras la Comisión Federal de Comercio investiga OpenAI. sobre si se está manejando mal la información personal de los usuarios.

Después de anunciar un acuerdo para licenciar contenido de Associated Press por términos no revelados el mes pasado, una medida que implica que OpenAI entiende que necesita licenciar contenido en el que se basa ChatGPT, OpenAI dijo este mes que permitirá a los operadores de sitios web bloquear su rastreador web, GPTBot. , de sorber información en sus sitios. Eso es importante porque OpenAI no ha dicho cómo obtuvo todo ese contenido que alimenta ChatGPT, uno de los chatbots más populares junto con Google Bard y Microsoft Bing.

Google no es tan tímido acerca de lo que impulsa a Bard, diciendo en una presentación presentada esta semana ante el gobierno australiano que "la ley de derechos de autor debería modificarse para permitir que los sistemas generativos de inteligencia artificial rastreen Internet". Quiero decir, después de todo, así es como surgió la Búsqueda de Google. Pero Google también dijo que debería haber una "exclusión viable para las entidades que prefieren que sus datos no sean entrenados en el uso de sistemas de inteligencia artificial", según un informe de The Guardian, que agregó que "la compañía no ha dicho cómo debería funcionar dicho sistema".

TL;DR: Espere muchas más demandas, acuerdos de licencia y discusiones con agencias reguladoras en los EE. UU. y en todo el mundo sobre cómo las empresas de IA deberían y no deberían obtener los datos que necesitan para entrenar los grandes modelos de lenguaje que impulsan estos chatbots.

Como señaló Wired, en Estados Unidos, donde no existe una ley federal de privacidad que proteja a los consumidores de las empresas que dependen de la recopilación y reventa de datos: "Muchas empresas de tecnología ya se benefician de nuestra información, y muchas de ellas, como Zoom, ahora están buscando formas de "Obtener más datos para proyectos de IA generativa. Y, sin embargo, depende de nosotros, los usuarios, intentar controlar lo que están haciendo".

Aquí están las otras acciones en IA que merecen su atención.

Mientras se preparaba para su primer maratón en noviembre, la reportera de CNET Bree Fowler probó un software de ajuste de calzado impulsado por inteligencia artificial de Fleet Foots, una cadena nacional de tiendas especializadas en corredores, para ayudarla a encontrar las zapatillas adecuadas.

A pesar de su escepticismo sobre sus capacidades, Fowler descubrió que el software Fit Engine analizaba "las formas de ambos pies de un corredor (recopiladas mediante un proceso de escaneo 3D llamado Fit ID) tomando medidas precisas en cuatro áreas diferentes. No solo analiza cuánto tiempo "Los pies de una persona, sino también la altura de sus arcos, la anchura de sus dedos y el espacio que necesitan en el talón".

El programa de IA mide tus pies en varias dimensiones diferentes para ayudarte a encontrar el ajuste ideal.

Al final, Fowler descubrió que sus pies eran más grandes de lo que pensaba. Y después de probarse "muchos, muchos" zapatos, después de una hora pudo reducir el número a dos pares (uno de los cuales estaba en oferta). Pero si cree que el software de IA es el principio y el fin del proceso de selección de calzado especializado, piénselo de nuevo. Incluso el gerente de experiencia minorista de la tienda Fleet Feet de Nueva York que visitó dijo que la herramienta está ahí solo para ayudar a los empleados humanos y brindarles un punto de partida para encontrar zapatos con el ajuste correcto.

"Convierte los datos en algo mucho más comprensible para el consumidor", dijo a Fowler Michael McShane de Fleet Feet. "Todavía estoy aquí para darte una valoración experta, enseñarte lo que dicen los datos y explicarte por qué es mejor venir aquí que ir a una especie de tienda de genéricos".

Mientras los actores y otros profesionales creativos continúan atacando a los estudios de Hollywood por cómo la IA podría afectar o desplazar sus trabajos en el futuro, Reuters, citando fuentes anónimas, dice que Walt Disney ha "creado un grupo de trabajo para estudiar la inteligencia artificial y cómo puede ser aplicado en todo el conglomerado de entretenimiento". El informe añade que la empresa está "buscando desarrollar aplicaciones de IA internamente, así como formar asociaciones con nuevas empresas". La esencia: Disney está recurriendo a la IA para ver cómo puede reducir costos cuando se trata de producir películas y programas de televisión, dijo una fuente a Reuters.

Disney se negó a hacer comentarios a Reuters, pero como muchas otras empresas, tiene ofertas de trabajo en su sitio que sugieren dónde residen sus intereses en la IA.

En una encuesta de 24 páginas del 1 de agosto titulada "El estado de la IA en 2023: el año decisivo de la IA generativa", McKinsey & Co. dijo que encontró que menos de un año después del lanzamiento de herramientas de IA generativa como ChatGPT, un tercio de la encuesta Los encuestados ya están utilizando herramientas de IA de generación para al menos una función empresarial.

"En medio de los avances recientes, la IA ha pasado de ser un tema relegado a los empleados tecnológicos a convertirse en un foco de atención para los líderes de las empresas: casi una cuarta parte de los ejecutivos de alto nivel encuestados dicen que están utilizando personalmente herramientas de IA de generación para el trabajo, y más de una cuarta parte de Los encuestados de empresas que utilizan IA dicen que la IA genética ya está en las agendas de sus juntas directivas", encontró el investigador.

"Es más, el 40 por ciento de los encuestados dice que sus organizaciones aumentarán su inversión en IA en general debido a los avances en la IA de generación. Los hallazgos muestran que todavía estamos en los primeros días para gestionar los riesgos relacionados con la IA de generación, y menos de la mitad de los encuestados dijeron que su Las organizaciones están mitigando incluso el riesgo que consideran más relevante: la inexactitud".

Mientras tanto, en un informe llamado Automatización ahora y en el futuro: Informe sobre el estado de la automatización inteligente 2023, los 1.000 ejecutivos de automatización encuestados dijeron que la IA ayudará a impulsar la productividad. "A medida que automatizamos la parte más tediosa de su trabajo, los resultados de las encuestas de satisfacción de los empleados son mejores. Los empleados están más comprometidos. Están más felices. Eso lo podemos medir a través de encuestas. Los bots esencialmente hacen lo que la gente solía hacer, que es repetitivo, tareas de bajo valor", dijo un CTO de una gran organización de atención médica como parte de la encuesta, que se puede encontrar aquí.

Ese estudio fue encargado por Automation Anywhere, que se describe a sí mismo como "un líder en soluciones de automatización inteligente impulsadas por IA", así que tome los resultados con cautela. Pero diré que esos hallazgos sobre productividad son similares a lo que McKinsey, Goldman Sachs y otros también han estado diciendo.

Y en caso de que tuviera alguna duda de que la adopción de la IA genérica es un fenómeno global, le ofrezco este análisis de la adopción de tecnología de IA por país por parte de Electronics Hub, que dice haber analizado los volúmenes de búsqueda de Google para herramientas de búsqueda populares. Encontró que Filipinas mostraba el "mayor volumen de búsqueda mensual de herramientas de inteligencia artificial en general".

Además de alucinar (inventar cosas que no son ciertas pero que parecen ciertas), las IA también tienen el potencial de engañar, desinformar o simplemente causar estragos al identificar erróneamente, por ejemplo, a un respetado investigador y político holandés como terrorista, como sucedió recientemente.

Para catalogar las formas en que la IA puede fallar, ahora existe una base de datos de incidentes de IA, que dice estar "dedicada a indexar el historial colectivo de daños o cuasi daños ocurridos en el mundo real mediante el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en la aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados".

Está invitado a enviar cualquier error, metedura de pata, contratiempo o problema de IA que observe a la base de datos, que ya se ha ganado el apodo de "Salón de la Vergüenza de la Inteligencia Artificial".

Hablando de las formas en que la IA puede salir mal, el Centro para Contrarrestar el Odio Digital publicó un informe de 22 páginas que detalla "Cómo la IA generativa permite a los usuarios generar contenido perjudicial para los trastornos alimentarios". Después de solicitar seis plataformas de inteligencia artificial y generadores de imágenes, el centro descubrió que "las herramientas populares de inteligencia artificial generaban contenido dañino sobre trastornos alimentarios en respuesta al 41% de un total de 180 solicitudes, incluidos consejos para lograr una estética 'heroína chic' e imágenes para 'inspiración'. "

"Las empresas tecnológicas deberían diseñar nuevos productos teniendo en cuenta la seguridad y probarlos rigurosamente antes de que lleguen al público", escribió en el prefacio el director ejecutivo del centro, Imran Ahmed. "Ese es un principio con el que la mayoría de la gente está de acuerdo y, sin embargo, la abrumadora presión comercial competitiva para que estas empresas lancen nuevos productos rápidamente no está siendo controlada por ninguna regulación o supervisión por parte de instituciones democráticas".

La información errónea sobre la salud y muchos, muchos otros temas ha estado disponible en Internet desde el principio, pero las IA pueden plantear un desafío único si más personas comienzan a confiar en ellas como su principal fuente de noticias e información. Pew Research ha escrito extensamente sobre cuán dependientes son los estadounidenses de las redes sociales como fuente de noticias, por ejemplo.

Considere que en junio, la Asociación Nacional de Trastornos de la Alimentación, que cerró su línea de ayuda en vivo y en su lugar dirigió a las personas a otros recursos, incluido un chatbot de inteligencia artificial, tuvo que eliminar el robot llamado Tessa. ¿Por qué? Porque recomendaba "comportamientos como restricción de calorías y dieta, incluso después de que se le dijera que el usuario tenía un trastorno alimentario", informó la BBC. NEDA ahora dirige a las personas a hojas informativas, videos de YouTube y listas de organizaciones que pueden brindar información sobre opciones de tratamiento.

Todo el cuidado que pones al proteger tus contraseñas puede deshacerte si escribes tu código secreto mientras estás en una llamada de Zoom u otra videoconferencia con el micrófono encendido.

Esto se debe a que "ingresar una contraseña de computadora mientras se chatea a través de Zoom podría abrir la puerta a un ciberataque, sugiere una investigación, después de que un estudio revelara que la inteligencia artificial puede determinar qué teclas se presionan escuchando a escondidas el sonido de la escritura", informó The Guardian. .

De hecho, los investigadores crearon una herramienta que puede "determinar qué teclas se presionan en el teclado de una computadora portátil con más del 90% de precisión, basándose únicamente en grabaciones de sonido", según el artículo.

Dado que este resumen comienza con el debate sobre de dónde provienen los datos de entrenamiento, aquí hay una definición simple de qué son los datos de entrenamiento y por qué son importantes. Esta definición viene a través de NBC News:

"Datos de entrenamiento: Una colección de información (texto, imagen, sonido) seleccionada para ayudar a los modelos de IA a realizar tareas. En los modelos de lenguaje, los conjuntos de datos de entrenamiento se centran en materiales basados ​​en texto, como libros, comentarios de redes sociales e incluso códigos. Debido a que los modelos de IA aprenden de los datos de entrenamiento, se han planteado cuestiones éticas en torno a su abastecimiento y curación. Los datos de entrenamiento de baja calidad pueden introducir sesgos, lo que lleva a modelos injustos que toman decisiones racistas o sexistas".

Por ejemplo, NBC señaló, en 2019, "Se descubrió que un algoritmo de atención médica ampliamente utilizado que ayuda a determinar qué pacientes necesitan atención adicional tiene un sesgo racial significativo, favoreciendo a los pacientes blancos sobre los negros que estaban más enfermos y tenían condiciones de salud más crónicas, según a una investigación publicada... en la revista Science".

Nota del editor: CNET utiliza un motor de inteligencia artificial para ayudar a crear algunas historias. Para obtener más información, consulte esta publicación.

portátiles

Computadoras de escritorio y monitores

Accesorios de computador

Fotografía

Tabletas y lectores electrónicos

Impresoras 3D

"Datos de entrenamiento: