Lo Último en IP@P
- Stellar Data Recovery revoluciona la recuperación de archivos perdidos en discos duros externos
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
En un mundo cada vez más conectado, la inteligencia artificial (IA) se ha convertido en una herramienta omnipresente que transforma la manera en que interactuamos con la tecnología. Sin embargo, esta evolución no ha estado exenta de controversias, y una tendencia alarmante ha comenzado a emerger en el ámbito de la recopilación de datos.
Empresas de renombre, desde gigantes tecnológicos hasta plataformas de compra en línea, están apresurándose a actualizar sus términos de servicio y políticas de privacidad para permitir la recopilación de información y contenido de sus usuarios. ¿El objetivo? Utilizar estos datos para entrenar modelos de IA generativa.
Las empresas quieren el derecho de utilizar tu información de usuario para entrenar sus IA's
En los últimos meses, empresas como Twitter, Microsoft, Instacart, Meta (anteriormente conocida como Facebook) y Zoom han hecho modificaciones en sus políticas para permitir la recolección de información y contenido de sus usuarios con el propósito de entrenar modelos de IA generativa. Esto significa que tweets, búsquedas en la web, compras en línea e incluso grabaciones de conversaciones telefónicas se están convirtiendo en fuentes de datos para alimentar algoritmos de IA.
Un ejemplo destacado es Rev, un servicio de transcripción de conversaciones grabadas y llamadas telefónicas. En la última actualización de sus términos de servicio, Rev agregó una sección que le otorga una amplia licencia para utilizar todo el contenido cargado a su plataforma, tanto público como privado, con el propósito de mejorar sus modelos de IA. Esta decisión ha generado preocupación entre los usuarios, quienes pueden optar por no compartir sus datos para entrenamiento, pero el proceso para hacerlo no es del todo claro.
Instacart, por su parte, ha prohibido que sus datos sean utilizados para "crear, entrenar, probar o mejorar" herramientas de IA. Sin embargo, al mismo tiempo, ha introducido un lenguaje en sus términos que le permite utilizar los datos de sus propios clientes para mejorar sus algoritmos de aprendizaje automático. La falta de transparencia en cuanto a los cambios en sus políticas ha dejado a muchos usuarios confundidos y preocupados.
The NeurIPS @unlearning_2023 Competition is open for submissions @kaggle→ https://t.co/dBNU78pd2z! With the goal of developing algorithms that can unlearn a subset of training data, the competition is open to all, with prizes for the top performers. More from our earlier blog ↓ https://t.co/R3MfhcDVYQ
— Google AI (@GoogleAI) September 13, 2023
¿Esta decisión podría estancar el crecimiento de la IA?
Últimas Noticias de Tecnología
- Los proxys empresariales siguen su crecimiento imparable gracias a la evolución del mercado DaaS
- Explorando el mundo de las tarjetas de crédito virtuales: Un análisis detallado de los mejores servicios
- Con esta tecnología hasta tu madre podrá controlar un brazo robótico con extrema facilidad
- Nissan revoluciona el mercado con su nuevo concepto de vehículo eléctrico deportivo para Europa
- Estudiantes logran récord mundial con el auto eléctrico de mayor autonomía
SÍGUENOS EN 👉 YOUTUBE TV
La pregunta clave que surge en este contexto es: ¿por qué estas empresas están tan ansiosas por recopilar datos de usuarios para entrenar sus modelos de IA? La respuesta a esta interrogante está vinculada a la creciente demanda de IA cada vez más avanzada. Las empresas buscan mejorar la precisión y capacidad de respuesta de sus algoritmos de IA, y para lograrlo, necesitan enormes cantidades de datos de entrenamiento.
En el caso de Rev, la empresa justifica su decisión argumentando que utiliza los datos de manera anónima y perpetua, incluso después de que un usuario deje de ser cliente activo, para entrenar su IA. La promesa de anonimato y la posibilidad de optar por no compartir datos son intentos de abordar las preocupaciones de privacidad.
En el caso de Instacart, la empresa ha reconocido que planea incorporar herramientas de IA generativa en su plataforma para ayudar a los clientes en sus compras de comestibles. Esto sugiere que la motivación principal es mejorar la experiencia del usuario y brindar respuestas más precisas a las preguntas de los clientes.
Sin embargo, esta recopilación masiva de datos plantea preocupaciones éticas y morales significativas. A medida que las empresas amplían sus conjuntos de datos de entrenamiento, existe el riesgo de sesgos morales en los resultados de la IA. Los modelos de IA tienden a aprender de los datos que se les proporcionan, lo que significa que si los datos de entrenamiento contienen sesgos, esos sesgos pueden propagarse a las respuestas generadas por la IA.
Por ejemplo, si los datos utilizados para entrenar a una IA provienen principalmente de una demografía específica o reflejan prejuicios sociales, la IA podría generar respuestas sesgadas o discriminatorias. Esto plantea preguntas sobre la responsabilidad de las empresas en la eliminación de sesgos y la protección de la privacidad de los usuarios.