Home Tecnología Mujeres en la IA: Anika Collier Navaroli está trabajando para cambiar el desequilibrio de poder

Mujeres en la IA: Anika Collier Navaroli está trabajando para cambiar el desequilibrio de poder

by internauta
0 comment


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA.

Anika Collier Navaroli es miembro principal del Tow Center for Digital Journalism de la Universidad de Columbia y miembro de Technology Public Voices del OpEd Project, realizado en colaboración con la Fundación MacArthur.

Es conocida por su trabajo de investigación y promoción dentro de la tecnología. Anteriormente, trabajó como becaria especializada en raza y tecnología en el Centro de Filantropía y Sociedad Civil de Stanford. Antes de esto, dirigió Confianza y Seguridad en Twitch y Twitter. Navaroli es quizás mejor conocida por su testimonio ante el Congreso sobre Twitter, donde habló sobre las advertencias ignoradas de violencia inminente en las redes sociales que precedieron lo que se convertiría en el ataque al Capitolio del 6 de enero.

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Hace unos 20 años, trabajaba como copista en la sala de redacción del periódico de mi ciudad natal durante el verano cuando se volvió digital. En aquel entonces, yo era un estudiante universitario que estudiaba periodismo. Los sitios de redes sociales como Facebook estaban arrasando mi campus y me obsesioné con tratar de entender cómo las leyes basadas en la imprenta evolucionarían con las tecnologías emergentes. Esa curiosidad me llevó a estudiar derecho, donde migré a Twitter, estudié derecho y política de medios y vi cómo se desarrollaban los movimientos Primavera Árabe y Occupy Wall Street. Lo junté todo y escribí mi tesis de maestría sobre cómo las nuevas tecnologías estaban transformando la forma en que fluía la información y cómo la sociedad ejercía la libertad de expresión.

Trabajé en un par de firmas de abogados después de graduarme y luego encontré mi camino al Instituto de Investigación de Datos y Sociedad liderando la investigación del nuevo grupo de expertos sobre lo que entonces se llamaba “grandes datos”, derechos civiles y justicia. Mi trabajo allí analizó cómo los primeros sistemas de inteligencia artificial, como el software de reconocimiento facial, las herramientas policiales predictivas y los algoritmos de evaluación de riesgos de justicia penal, replicaban sesgos y creaban consecuencias no deseadas que impactaban a las comunidades marginadas. Luego trabajé en Color of Change y dirigí la primera auditoría de derechos civiles de una empresa de tecnología, desarrollé el manual de la organización para campañas de responsabilidad tecnológica y abogué por cambios en las políticas tecnológicas ante gobiernos y reguladores. A partir de ahí, me convertí en alto funcionario de políticas dentro de los equipos de Confianza y Seguridad en Twitter y Twitch.

¿De qué trabajo estás más orgulloso en el campo de la IA?

Estoy más orgulloso de mi trabajo dentro de empresas de tecnología que utilizan políticas para cambiar prácticamente el equilibrio de poder y corregir los prejuicios dentro de la cultura y los sistemas algorítmicos productores de conocimiento. En Twitter, realicé un par de campañas para verificar a personas que, sorprendentemente, habían sido previamente excluidas del proceso de verificación exclusivo, incluidas mujeres negras, personas de color y personas queer. Esto también incluyó a destacados académicos de la IA como Safiya Noble, Alondra Nelson, Timnit Gebru y Meredith Broussard. Esto fue en 2020 cuando Twitter todavía era Twitter. En aquel entonces, la verificación significaba que su nombre y contenido se convertían en parte del algoritmo central de Twitter porque los tweets de cuentas verificadas se inyectaban en recomendaciones, resultados de búsqueda, líneas de tiempo de inicio y contribuían a la creación de tendencias. Por lo tanto, trabajar para verificar nuevas personas con diferentes perspectivas sobre la IA cambió fundamentalmente a cuyas voces se les dio autoridad como líderes de opinión y se elevaron nuevas ideas a la conversación pública durante algunos momentos realmente críticos.

También estoy muy orgulloso de la investigación que realicé en Stanford y que resultó en Black in Moderation. Cuando trabajaba en empresas de tecnología, también noté que nadie escribía ni hablaba sobre las experiencias que tenía todos los días como persona negra que trabajaba en Confianza y Seguridad. Entonces, cuando dejé la industria y volví a la academia, decidí hablar con trabajadores tecnológicos negros y sacar a la luz sus historias. La investigación terminó siendo la primera de su tipo y ha estimulado muchas conversaciones nuevas e importantes sobre las experiencias de los empleados tecnológicos con identidades marginadas.

¿Cómo se enfrentan los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la IA dominada por los hombres?

Como mujer negra queer, navegar por espacios dominados por hombres y espacios en los que soy diferente ha sido parte de todo el viaje de mi vida. Dentro de la tecnología y la inteligencia artificial, creo que el aspecto más desafiante ha sido lo que llamo en mi investigación “trabajo de identidad obligatorio”. Acuñé el término para describir situaciones frecuentes en las que los empleados con identidades marginadas son tratados como voces y/o representantes de comunidades enteras que comparten sus identidades.

Debido a los grandes riesgos que conlleva el desarrollo de nuevas tecnologías como la IA, a veces puede parecer casi imposible escapar de esa labor. Tuve que aprender a fijarme límites muy específicos sobre los temas en los que estaba dispuesto a abordar y cuándo.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Según informes de investigación, los modelos actuales de IA generativa han engullido todos los datos de Internet y pronto se quedarán sin datos disponibles para devorar. Por eso, las empresas de IA más grandes del mundo están recurriendo a datos sintéticos, o información generada por la propia IA, en lugar de por humanos, para continuar entrenando sus sistemas.

La idea me llevó a una madriguera de conejo. Por eso, recientemente escribí un artículo de opinión argumentando que creo que este uso de datos sintéticos como datos de entrenamiento es una de las cuestiones éticas más apremiantes que enfrenta el nuevo desarrollo de la IA. Los sistemas de IA generativa ya han demostrado que, basándose en sus datos de entrenamiento originales, su resultado es replicar sesgos y crear información falsa. Por lo tanto, el camino de entrenar nuevos sistemas con datos sintéticos significaría alimentar constantemente al sistema resultados sesgados e inexactos como nuevos datos de entrenamiento. Describí esto como algo que podría convertirse en un ciclo de retroalimentación hacia el infierno.

Desde que escribí el artículo, Mark Zuckerberg elogió que el chatbot Llama 3 actualizado de Meta estuviera parcialmente impulsado por datos sintéticos y fuera el producto de IA generativa “más inteligente” del mercado.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

La IA es una parte omnipresente de nuestras vidas actuales, desde el corrector ortográfico y las redes sociales hasta los chatbots y los generadores de imágenes. En muchos sentidos, la sociedad se ha convertido en el conejillo de indias de los experimentos de esta nueva tecnología no probada. Pero los usuarios de IA no deberían sentirse impotentes.

He estado argumentando que los defensores de la tecnología deberían unirse y organizar a los usuarios de IA para pedir una pausa popular en la IA. Creo que el Writers Guild of America ha demostrado que con organización, acción colectiva y resolución paciente, las personas pueden unirse para crear límites significativos para el uso de tecnologías de inteligencia artificial. También creo que si hacemos una pausa ahora para corregir los errores del pasado y crear nuevas pautas y regulaciones éticas, la IA no tiene por qué convertirse en una amenaza existencial para nuestro futuro.

¿Cuál es la mejor manera de construir IA de manera responsable??

Mi experiencia trabajando dentro de empresas de tecnología me mostró lo mucho que importa quién está en la sala redactando políticas, presentando argumentos y tomando decisiones. Mi camino también me mostró que desarrollé las habilidades que necesitaba para tener éxito dentro de la industria de la tecnología al comenzar en la escuela de periodismo. Ahora he vuelto a trabajar en la Escuela de Periodismo de Columbia y estoy interesado en capacitar a la próxima generación de personas que harán el trabajo de responsabilidad tecnológica y desarrollarán responsablemente la IA tanto dentro de las empresas de tecnología como como guardianes externos.

Creo [journalism] la escuela brinda a las personas una capacitación única para interrogar información, buscar la verdad, considerar múltiples puntos de vista, crear argumentos lógicos y destilar hechos y realidad de opiniones y desinformación. Creo que es una base sólida para las personas que serán responsables de escribir las reglas sobre lo que las próximas iteraciones de IA pueden y no pueden hacer. Y espero crear un camino más pavimentado para los que vienen a continuación.

También creo que, además de trabajadores cualificados de Confianza y Seguridad, la industria de la IA necesita regulación externa. En Estados Unidos, sostengo que esto debería adoptar la forma de una nueva agencia que regule a las empresas de tecnología estadounidenses con el poder de establecer y hacer cumplir estándares básicos de seguridad y privacidad. También me gustaría seguir trabajando para conectar a los reguladores actuales y futuros con ex trabajadores tecnológicos que puedan ayudar a quienes están en el poder a hacer las preguntas correctas y crear nuevas soluciones prácticas y matizadas.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00