Home Tecnología Todos contribuimos a la IA. ¿Deberíamos recibir un pago por eso?

Todos contribuimos a la IA. ¿Deberíamos recibir un pago por eso?

by internauta
0 comment


En Silicon Valley, algunas de las mentes más brillantes creen que un ingreso básico universal (UBI) que garantice a las personas pagos en efectivo sin restricciones los ayudará a sobrevivir y prosperar a medida que las tecnologías avanzadas eliminen más carreras tal como las conocemos, desde trabajos administrativos y creativos: abogados, periodistas, artistas, ingenieros de software, hasta roles laborales. La idea ha ganado suficiente fuerza como para que se hayan iniciado docenas de programas de ingresos garantizados en ciudades de EE. UU. desde 2020.

Sin embargo, incluso Sam Altman, el CEO de OpenAI y uno de los defensores de más alto perfil de UBI, no cree que sea una solución completa. Como dijo durante una reunión a principios de este año, “Creo que es una pequeña parte de la solución. Yo creo que es genial. pienso como [advanced artificial intelligence] participa cada vez más en la economía, debemos distribuir la riqueza y los recursos mucho más de lo que tenemos y eso será importante con el tiempo. Pero no creo que eso vaya a resolver el problema. No creo que eso le dé sentido a la gente, no creo que signifique que la gente dejará de intentar crear y hacer cosas nuevas y cualquier otra cosa. Así que lo consideraría una tecnología habilitadora, pero no un plan para la sociedad”.

La pregunta planteada es cómo debería ser un plan para la sociedad, y el informático Jaron Lanier, uno de los fundadores del campo de la realidad virtual, escribe en el New Yorker de esta semana que la “dignidad de los datos” podría ser una parte aún mayor de la solución.

Aquí está la premisa básica: en este momento, en su mayoría brindamos nuestros datos de forma gratuita a cambio de servicios gratuitos. Lanier argumenta que en la era de la IA, debemos dejar de hacer esto, que los modelos poderosos que actualmente se abren camino en la sociedad “estén conectados con los humanos” que les dan mucho para ingerir y aprender en primer lugar.

La idea es que a las personas “se les pague por lo que crean, incluso cuando se filtra y se recombina” en algo irreconocible.

El concepto no es nuevo, ya que Lanier introdujo por primera vez la noción de dignidad de los datos en un artículo de Harvard Business Review de 2018 titulado “Un plan para una mejor sociedad digital”.

Como escribió en ese momento con el coautor y economista Glen Weyl, “[R]la retórica del sector tecnológico sugiere una próxima ola de subempleo debido a la inteligencia artificial (IA) y la automatización”. Pero las predicciones de los defensores de la RBU “dejan espacio solo para dos resultados”, y son extremas, observaron Lanier y Weyl. “O habrá pobreza masiva a pesar de los avances tecnológicos, o mucha riqueza tendrá que ser puesta bajo control nacional central a través de un fondo de riqueza social para proporcionar a los ciudadanos un ingreso básico universal”.

El problema es que ambos “hiperconcentran el poder y socavan o ignoran el valor de los creadores de datos”, escribieron.

desenredar mi mente

Por supuesto, asignar a las personas la cantidad adecuada de crédito por sus innumerables contribuciones a todo lo que existe en línea no es un desafío menor. Lanier reconoce que incluso los investigadores de la dignidad de los datos no pueden ponerse de acuerdo sobre cómo desentrañar todo lo que los modelos de IA han absorbido o qué tan detallada debe intentarse una contabilidad.

Aún así, cree que podría hacerse, gradualmente. “El sistema no necesariamente daría cuenta de los miles de millones de personas que han hecho contribuciones ambientales a los grandes modelos, aquellos que han agregado a la competencia simulada de un modelo con la gramática, por ejemplo”. Pero comenzando con un “pequeño número de colaboradores especiales”, con el tiempo, “podrían incluirse más personas” y “comenzar a desempeñar un papel”.

Por desgracia, incluso si hay voluntad, se avecina un desafío más inmediato: la falta de acceso. Aunque OpenAI había publicado algunos de sus datos de entrenamiento en años anteriores, desde entonces ha cerrado el kimono por completo. Cuando Greg Brockman describió a TechCrunch el mes pasado los datos de entrenamiento para el último y más poderoso modelo de lenguaje grande de OpenAI, GPT-4, dijo que se derivaba de una “variedad de fuentes de datos con licencia, creadas y disponibles públicamente, que pueden incluir información personal”, pero se negó a ofrecer algo más específico.

Como declaró OpenAI en el lanzamiento de GPT-4, hay demasiado inconveniente para que el equipo revele más de lo que revela. “Dado el panorama competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción de conjuntos de datos, el método de entrenamiento o similar”. (Lo mismo es cierto para todos los modelos de lenguaje grande actualmente, incluido el chatbot Bard de Google).

Como era de esperar, los reguladores están lidiando con qué hacer. OpenAI, cuya tecnología en particular se está extendiendo como la pólvora, ya está en la mira de un número creciente de países, incluida la autoridad italiana, que ha bloqueado el uso de su popular chatbot ChatGPT. Los reguladores de datos franceses, alemanes, irlandeses y canadienses también están investigando cómo recopila y utiliza los datos.

Pero como Margaret Mitchell, una investigadora de IA que anteriormente fue codirectora de ética de IA de Google, le dice al medio Technology Review, podría ser casi imposible en este momento para estas empresas identificar los datos de las personas y eliminarlos de sus modelos.

Como explicó el medio: OpenAI estaría mejor hoy si hubiera incorporado el mantenimiento de registros de datos desde el principio, pero es estándar en la industria de IA crear conjuntos de datos para modelos de IA raspando la web indiscriminadamente y luego subcontratando algunos de los limpieza de esos datos.

Cómo salvar una vida

Si estos jugadores realmente tienen una comprensión limitada de lo que hay ahora en sus modelos, eso es un gran desafío para la propuesta de “dignidad de los datos” de Lanier, quien llama a Altman un “colega y amigo” en su artículo del New Yorker.

Si lo hace imposible es algo que solo el tiempo dirá.

Ciertamente, tiene mérito determinar una forma de otorgar a las personas la propiedad de su trabajo, incluso si se hace exteriormente como “otro”. También es muy probable que la frustración sobre quién posee qué crezca a medida que más partes del mundo se remodelen con estas nuevas herramientas.

OpenAI y otros ya se enfrentan a numerosas y amplias demandas por infracción de derechos de autor sobre si tienen o no el derecho de rastrear todo Internet para alimentar sus algoritmos.

Quizás aún más importante, dar crédito a las personas por lo que sale de estos sistemas de IA podría ayudar a preservar la cordura de los humanos con el tiempo, sugiere Lanier en su fascinante artículo del New Yorker.

La gente necesita agencia y, como él lo ve, el ingreso básico universal por sí solo “equivale a poner a todos en el paro para preservar la idea de la inteligencia artificial de caja negra”.

Mientras tanto, poner fin a la “naturaleza de caja negra de nuestros modelos actuales de IA” facilitaría la contabilidad de las contribuciones de las personas, lo que podría hacer que sea mucho más probable que continúen haciendo contribuciones.

Todo podría reducirse a establecer una nueva clase creativa en lugar de una nueva clase dependiente, escribe. ¿Y tú, de cuál preferirías formar parte?

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00