El tecnólogo e investigador Aviv Ovadya no está seguro de que la IA generativa pueda ser gobernada, pero cree que la forma más plausible de mantenerla bajo control podría ser confiarles a aquellos que se verán afectados por la IA que decidan colectivamente las formas de frenarla.
Eso significa tu; significa yo Es el poder de las grandes redes de personas para resolver problemas de forma más rápida y equitativa de lo que podría hacerlo un pequeño grupo de personas por sí solo (incluso, por ejemplo, en Washington). Se basa esencialmente en la sabiduría de las multitudes, y está sucediendo en muchos campos, incluida la investigación científica, los negocios, la política y los movimientos sociales.
En Taiwán, por ejemplo, piratas informáticos con mentalidad cívica formaron en 2015 una plataforma, “Taiwán virtual”, que “reúne a representantes de los sectores público, privado y social para debatir soluciones políticas a problemas principalmente relacionados con la economía digital”, como se explicó. en 2019 por la ministra digital de Taiwán, Audrey Tang en el New York Times. Desde entonces, vTaiwan, como se le conoce, ha abordado docenas de problemas “basándose en una combinación de debate en línea y discusiones cara a cara con las partes interesadas”, escribió Tang en ese momento.
Una iniciativa similar es la Revisión de la iniciativa ciudadana de Oregón, que se convirtió en ley en 2011 e informa a la población votante del estado sobre las medidas electorales a través de un “proceso deliberativo” impulsado por los ciudadanos. Aproximadamente 20 a 25 ciudadanos que son representativos de todo el electorado de Oregón se reúnen para debatir los méritos de una iniciativa; luego escriben colectivamente una declaración sobre esa iniciativa que se envía a los demás votantes del estado para que puedan tomar decisiones mejor informadas los días de las elecciones.
Los llamados procesos deliberativos también han ayudado con éxito a abordar problemas en Australia (política de agua), Canadá (reforma electoral), Chile (pensiones y atención médica) y Argentina (vivienda, propiedad de la tierra), entre otros lugares.
“Hay obstáculos para hacer que esto funcione” en lo que respecta a la IA, reconoce Ovadya, afiliado al Centro Berkman Klein de Harvard y cuyo trabajo se centra cada vez más en los impactos de la IA en la sociedad y la democracia. “Pero empíricamente, esto se ha hecho en todos los continentes del mundo, en todas las escalas” y “cuanto más rápido podamos implementar algunas de estas cosas, mejor”, señala.
Dejar que las personas decidan cuáles son las pautas aceptables en torno a la IA en particular puede sonar extraño para algunos, pero incluso los tecnólogos creen que es parte de la solución. Mira Murati, directora de tecnología de la destacada startup de inteligencia artificial OpenAI, le dice a la revista Time en una nueva entrevista: “[W[e’re a small group of people and we need a ton more input in this system and a lot more input that goes beyond the technologies— definitely regulators and governments and everyone else.”
Asked if Murati fears that government involvement can slow innovation or whether she thinks it’s too early for policymakers and regulators to get involved, she tells the outlet, “It’s not too early. It’s very important for everyone to start getting involved given the impact these technologies are going to have.”
In the current regulatory vacuum, OpenAI has taken a self-governing approach for now, instituting guidelines for the safe use of its tech and pushing out new iterations in dribs and drabs — sometimes to the frustration of the wider public.
The European Union has meanwhile been drafting a regulatory framework — AI Act — that’s making its way through the European Parliament and aims to become a global standard. The law would assign applications of AI to three risk categories: applications and systems that create an “unacceptable risk”; “high-risk applications,” such as a “CV-scanning tool that ranks job applicants” that would be subject to specific legal requirements; and applications not explicitly banned or listed as high-risk that would largely be left unregulated.
The U.S. Department of Commerce has also drafted a voluntary framework meant as guidance for companies, but there remains no regulation– zilcho — when it’s sorely needed. (In addition to OpenAI, tech behemoths like Microsoft and Google — despite being burned by earlier releases of their own AI that backfired — are very publicly racing again to roll out AI-infused products and applications, lest they be left behind.)
A kind of World Wide Web consortium, an international organization created in 1994 to set standards for the World Wide Web, would seemingly make sense. Indeed, in that Time interview, Murati observes that “different voices, like philosophers, social scientists, artists, and people from the humanities” should be brought together to answer the many “ethical and philosophical questions that we need to consider.”
Maybe the industry starts there, and so-called collective intelligence fills in many of the gaps between the broad brush strokes.
Maybe some new tools help toward that end. Open AI CEO Sam Altman is also a cofounder, for example, of a retina-scanning company in Berlin called WorldCoin that wants to make it easy to authenticate someone’s identity easily. Questions have been raised about the privacy and security implications of WorldCoin’s biometric approach, but its potential applications include distributing a global universal basic income, as well as empowering new forms of digital democracy.
Either way, Ovadya thinks that turning to deliberative processes involving wide swaths of people from around the world is the way to create boundaries around AI while also giving the industry’s players more credibility.
“OpenAI is getting some flack right now from everyone,” including over its perceived liberal bias, says Ovadya. “It would be helpful [for the company] tener una respuesta realmente concreta” sobre cómo establece sus políticas futuras.
Ovadya apunta de manera similar a Stability.AI, la empresa de IA de código abierto cuyo director ejecutivo, Emad Mostaque, ha sugerido repetidamente que Stability es más democrático que OpenAI porque está disponible en todas partes, mientras que OpenAI está disponible solo en países en este momento donde puede proporcionar ” acceso seguro.”
Dice Ovadya: “Emad de Stability dice que está ‘democratizando la IA’. Bien, ¿No sería bueno usar procesos democráticos para descubrir qué es lo que la gente realmente quiere?”.
¿Podemos ‘nosotros, la gente’ mantener la IA bajo control? por Connie Loizos publicado originalmente en TechCrunch