Home Tecnología Mujeres en IA: Claire Leibowicz, experta en IA e integridad de los medios en PAI

Mujeres en IA: Claire Leibowicz, experta en IA e integridad de los medios en PAI

by internauta
0 comment


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Claire Leibowicz es la directora del programa de IA e integridad de los medios de Partnership on AI (PAI), el grupo industrial respaldado por Amazon, Meta, Google, Microsoft y otros comprometidos con el despliegue “responsable” de la tecnología de IA. También supervisa el comité directivo de integridad de los medios y la inteligencia artificial de PAI.

En 2021, Leibowicz fue becaria de periodismo en Tablet Magazine y, en 2022, fue becaria del Bellagio Center de la Fundación Rockefeller centrada en la gobernanza de la IA. Leibowicz, que tiene una licenciatura en psicología e informática de Harvard y una maestría de Oxford, ha asesorado a empresas, gobiernos y organizaciones sin fines de lucro sobre gobernanza de IA, medios generativos e información digital.

Preguntas y respuestas

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Puede parecer paradójico, pero llegué al campo de la IA por interés en el comportamiento humano. Crecí en Nueva York y siempre me cautivaron las muchas formas en que interactúa la gente allí y cómo toma forma una sociedad tan diversa. Tenía curiosidad por las grandes cuestiones que afectan la verdad y la justicia, como ¿cómo elegimos confiar en los demás? ¿Qué provoca el conflicto intergrupal? ¿Por qué la gente cree que ciertas cosas son ciertas y otras no? Comencé a explorar estas preguntas en mi vida académica a través de la investigación en ciencias cognitivas y rápidamente me di cuenta de que la tecnología estaba afectando las respuestas a estas preguntas. También me pareció intrigante cómo la inteligencia artificial podría ser una metáfora de la inteligencia humana.

Eso me llevó a las aulas de informática donde los profesores (debo mencionar a la profesora Barbara Grosz, que es una pionera en el procesamiento del lenguaje natural, y al profesor Jim Waldo, que combinó su experiencia en filosofía y ciencias de la computación) subrayaron la importancia de llenar sus aulas con carreras de ingeniería y no relacionadas con la informática se centren en el impacto social de las tecnologías, incluida la IA. Y esto fue antes de que la “ética de la IA” fuera un campo distinto y popular. Dejaron en claro que, si bien la comprensión técnica es beneficiosa, la tecnología afecta vastos ámbitos que incluyen la geopolítica, la economía, el compromiso social y más, por lo que requieren que personas de muchos orígenes disciplinarios intervengan en cuestiones aparentemente tecnológicas.

Ya sea usted un educador que piensa en cómo las herramientas de IA generativa afectan la pedagogía, un curador de museo que experimenta con una ruta predictiva para una exhibición o un médico que investiga nuevos métodos de detección de imágenes para leer informes de laboratorio, la IA puede impactar su campo. Esta realidad, que la IA afecta a muchos ámbitos, me intrigó: había una variedad intelectual inherente al trabajo en el campo de la IA, y esto traía consigo la oportunidad de impactar muchas facetas de la sociedad.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Estoy orgulloso del trabajo en IA que reúne perspectivas dispares de una manera sorprendente y orientada a la acción, que no sólo da cabida a los desacuerdos, sino que los fomenta. Me uní a la PAI como segundo miembro del personal de la organización hace seis años y sentí de inmediato que la organización era pionera en su compromiso con diversas perspectivas. PAI vio ese trabajo como un requisito previo vital para la gobernanza de la IA que mitigue el daño y conduzca a la adopción práctica y al impacto en el campo de la IA. Esto ha demostrado ser cierto y me ha alentado ayudar a dar forma a la adopción de la multidisciplinariedad por parte de PAI y ver cómo la institución crece junto con el campo de la IA.

Nuestro trabajo en medios sintéticos durante los últimos seis años comenzó mucho antes de que la IA generativa se convirtiera en parte de la conciencia pública y ejemplifica las posibilidades de la gobernanza de la IA por parte de múltiples partes interesadas. En 2020, trabajamos con nueve organizaciones diferentes de la sociedad civil, la industria y los medios de comunicación para dar forma al DeepfakeDetection Challenge de Facebook, una competencia de aprendizaje automático para construir modelos para detectar medios generados por IA. Estas perspectivas externas ayudaron a dar forma a la equidad y los objetivos de los modelos ganadores, mostrando cómo los expertos en derechos humanos y los periodistas pueden contribuir a una cuestión aparentemente técnica como la detección de deepfake. El año pasado, publicamos un conjunto normativo de orientación sobre medios sintéticos responsables (Prácticas responsables para medios sintéticos de PAI) que ahora cuenta con 18 partidarios de orígenes extremadamente diferentes, que van desde OpenAI hasta TikTok, Code for Africa, Bumble, BBC y WITNESS. Ser capaz de poner por escrito orientaciones prácticas que se basen en las realidades técnicas y sociales es una cosa, pero conseguir apoyo institucional es otra muy distinta. En este caso, las instituciones se comprometieron a brindar informes de transparencia sobre cómo navegan en el campo de los medios sintéticos. Los proyectos de IA que presentan una orientación tangible y muestran cómo implementar esa orientación en todas las instituciones son algunos de los más significativos para mí.

¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?

He tenido maravillosos mentores masculinos y femeninos a lo largo de mi carrera. Encontrar personas que me apoyen y me desafíen simultáneamente es clave para cualquier crecimiento que haya experimentado. Encuentro que centrarse en intereses compartidos y discutir las preguntas que animan el campo de la IA puede unir a personas con diferentes orígenes y perspectivas. Curiosamente, el equipo de PAI está formado por más de la mitad de mujeres, y muchas de las organizaciones que trabajan en IA y sociedad o en cuestiones responsables de IA tienen muchas mujeres en su personal. Esto suele contrastar con quienes trabajan en equipos de ingeniería e investigación de IA, y es un paso en la dirección correcta para la representación en el ecosistema de IA.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

Como mencioné en la pregunta anterior, algunos de los espacios predominantemente masculinos dentro de la IA que he encontrado también han sido los más técnicos. Si bien no debemos priorizar la perspicacia técnica sobre otras formas de alfabetización en el campo de la IA, he descubierto que tener capacitación técnica ha sido una gran ayuda tanto para mi confianza como para mi eficacia en dichos espacios. Necesitamos una representación equitativa en funciones técnicas y una apertura a la experiencia de personas expertas en otros campos, como los derechos civiles y la política, que tienen una representación más equilibrada. Al mismo tiempo, dotar a más mujeres de conocimientos técnicos es clave para equilibrar la representación en el campo de la IA.

También me ha resultado enormemente significativo conectarme con mujeres en el campo de la IA que han logrado equilibrar la vida familiar y profesional. Encontrar modelos a seguir con quienes hablar sobre grandes cuestiones relacionadas con la carrera y la paternidad (y algunos de los desafíos únicos que aún enfrentan las mujeres en el trabajo) me ha hecho sentir mejor equipada para manejar algunos de esos desafíos a medida que surgen.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Las cuestiones de la verdad y la confianza en línea (y fuera de línea) se vuelven cada vez más complicadas a medida que evoluciona la IA. Dado que el contenido, que va desde imágenes hasta vídeos y texto, puede generarse o modificarse mediante IA, ¿ver sigue creer? ¿Cómo podemos confiar en la evidencia si los documentos pueden manipularse de manera fácil y realista? ¿Podemos tener espacios en línea sólo para humanos si es extremadamente fácil imitar a una persona real? ¿Cómo navegamos por las compensaciones que presenta la IA entre la libre expresión y la posibilidad de que los sistemas de IA puedan causar daño? En términos más generales, ¿cómo garantizamos que el entorno de la información no solo esté conformado por unas pocas empresas seleccionadas y quienes trabajan para ellas, sino que incorpore las perspectivas de las partes interesadas de todo el mundo, incluido el público?

Además de estas preguntas específicas, PAI ha estado involucrada en otras facetas de la IA y la sociedad, incluida cómo consideramos la equidad y el sesgo en una era de toma de decisiones algorítmicas, cómo el trabajo impacta y es impactado por la IA, cómo navegar el despliegue responsable de sistemas de IA y incluso cómo hacer que los sistemas de IA reflejen mejor innumerables perspectivas. A nivel estructural, debemos considerar cómo la gobernanza de la IA puede sortear enormes compensaciones incorporando perspectivas variadas.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

En primer lugar, los usuarios de IA deben saber que si algo parece demasiado bueno para ser verdad, probablemente lo sea.

El auge de la IA generativa durante el año pasado ha reflejado, por supuesto, un enorme ingenio e innovación, pero también ha dado lugar a mensajes públicos sobre la IA que a menudo son hiperbólicos e inexactos.

Los usuarios de IA también deben comprender que la IA no es revolucionaria, sino que exacerba y aumenta los problemas y oportunidades existentes. Esto no significa que deban tomarse la IA menos en serio, sino más bien utilizar este conocimiento como una base útil para navegar en un mundo cada vez más infundido por la IA. Por ejemplo, si le preocupa el hecho de que las personas puedan descontextualizar un vídeo antes de una elección cambiando el título, debería preocuparse por la velocidad y la escala a la que pueden engañar utilizando tecnología deepfake. Si le preocupa el uso de la vigilancia en el lugar de trabajo, también debería considerar cómo la IA hará que dicha vigilancia sea más fácil y generalizada. Mantener un saludable escepticismo sobre la novedad de los problemas de la IA, y al mismo tiempo ser honesto sobre lo que es distintivo del momento actual, es un marco útil que los usuarios pueden aportar a sus encuentros con la IA.

¿Cuál es la mejor manera de construir IA de manera responsable?

La construcción responsable de IA requiere que ampliemos nuestra noción de quién desempeña un papel en la “construcción” de IA. Por supuesto, influir en las empresas de tecnología y las plataformas de redes sociales es una forma clave de influir en el impacto de los sistemas de IA, y estas instituciones son vitales para desarrollar tecnología de manera responsable. Al mismo tiempo, debemos reconocer cómo diversas instituciones de la sociedad civil, la industria, los medios de comunicación, el mundo académico y el público deben seguir participando para construir una IA responsable que sirva al interés público.

Tomemos, por ejemplo, el desarrollo y despliegue responsable de medios sintéticos.

Si bien las empresas de tecnología pueden estar preocupadas por su responsabilidad al analizar cómo un video sintético puede influir en los usuarios antes de una elección, los periodistas pueden estar preocupados por impostores que crean videos sintéticos que pretenden provenir de su marca de noticias confiable. Los defensores de los derechos humanos podrían considerar la responsabilidad relacionada con la forma en que los medios generados por IA reducen el impacto de los videos como evidencia de abusos. Y los artistas podrían estar entusiasmados con la oportunidad de expresarse a través de medios generativos, al mismo tiempo que les preocupa cómo sus creaciones podrían aprovecharse sin su consentimiento para entrenar modelos de inteligencia artificial que produzcan nuevos medios. Estas diversas consideraciones muestran cuán vital es involucrar a diferentes partes interesadas en iniciativas y esfuerzos para construir IA de manera responsable, y cómo innumerables instituciones se ven afectadas por (y afectan) la forma en que la IA se integra en la sociedad.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Hace años, escuché a DJ Patil, ex jefe científico de datos de la Casa Blanca, describir una revisión del omnipresente mantra de “moverse rápido y romper cosas” de la temprana era de las redes sociales que se me ha quedado grabado. Sugirió que el campo “se mueva con determinación y arregle las cosas”.

Me encantó esto porque no implicaba estancamiento ni abandono de la innovación, sino intencionalidad y la posibilidad de que uno pudiera innovar asumiendo responsabilidad. Los inversores deberían ayudar a inducir esta mentalidad, permitiendo más tiempo y espacio para que las empresas de su cartera incorporen prácticas responsables de IA sin sofocar el progreso. A menudo, las instituciones describen el tiempo limitado y los plazos ajustados como el factor limitante para hacer lo “correcto”, y los inversionistas pueden ser un catalizador importante para cambiar esta dinámica.

Cuanto más he trabajado en IA, más me he encontrado lidiando con cuestiones profundamente humanistas. Y estas preguntas requieren que todos las respondamos.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00