Home Tecnología Mujeres en la IA: Chinasa T. Okolo investiga el impacto de la IA en el Sur Global

Mujeres en la IA: Chinasa T. Okolo investiga el impacto de la IA en el Sur Global

by internauta
0 comment


Para darles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch ha estado publicando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos estos artículos a lo largo del año a medida que continúa el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Chinasa T. Okolo es miembro del programa de Estudios de Gobernanza del Instituto Brookings en el Centro de Innovación Tecnológica. Antes de eso, formó parte del comité de ética e impacto social que ayudó a desarrollar la Estrategia Nacional de Inteligencia Artificial de Nigeria y se desempeñó como asesora de ética y políticas de IA para varias organizaciones, incluida la Agencia de Desarrollo de la Unión Africana y el Instituto de Inteligencia Artificial de Quebec. Recientemente recibió un doctorado en informática de la Universidad de Cornell, donde investigó cómo la IA impacta el Sur Global.

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Inicialmente hice la transición a la IA porque vi cómo las técnicas computacionales podrían hacer avanzar la investigación biomédica y democratizar el acceso a la atención médica para las comunidades marginadas. Durante mi último año de licenciatura [at Pomona College], comencé a investigar con un profesor de interacción persona-computadora, lo que me expuso a los desafíos del sesgo dentro de la IA. Durante mi doctorado, me interesé en comprender cómo estos problemas afectarían a las personas del Sur Global, que representan la mayoría de la población mundial y a menudo están excluidas o subrepresentadas en el desarrollo de la IA.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Estoy increíblemente orgulloso de mi trabajo con la Unión Africana (UA) en el desarrollo de la Estrategia Continental UA-AI para África, cuyo objetivo es ayudar a los estados miembros de la UA a prepararse para la adopción, el desarrollo y la gobernanza responsables de la IA. La redacción de la estrategia llevó más de un año y medio y se publicó a finales de febrero de 2024. Ahora se encuentra en un período de retroalimentación abierta con el objetivo de ser adoptada formalmente por los estados miembros de la UA a principios de 2025.

Como nigeriano-estadounidense de primera generación que creció en Kansas City, MO, y no abandonó Estados Unidos hasta estudiar en el extranjero durante la licenciatura, siempre quise centrar mi carrera en África. Participar en un trabajo tan impactante tan temprano en mi carrera me entusiasma de buscar oportunidades similares para ayudar a dar forma a una gobernanza global e inclusiva de la IA.

¿Cómo se enfrentan los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la IA dominada por los hombres?

Encontrar una comunidad con quienes comparten mis valores ha sido esencial para navegar en las industrias de la tecnología y la inteligencia artificial dominadas por hombres.

He tenido la suerte de ver muchos avances en la IA responsable y destacadas investigaciones que exponen los daños de la IA dirigidas por académicas negras como Timnit Gebru, Safiya Noble, Abeba Birhane, Ruha Benjamin, Joy Buolamwini y Deb Raji, muchas de las cuales He podido conectarme en los últimos años.

Ver su liderazgo me ha motivado a continuar mi trabajo en este campo y me ha mostrado el valor de ir “contra la corriente” para lograr un impacto significativo.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

No se deje intimidar por la falta de experiencia técnica. El campo de la IA es multidimensional y necesita experiencia en diversos ámbitos. Mi investigación ha estado fuertemente influenciada por sociólogos, antropólogos, científicos cognitivos, filósofos y otros dentro de las humanidades y las ciencias sociales.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Una de las cuestiones más destacadas será mejorar la representación equitativa de las culturas no occidentales en lenguajes destacados y modelos multimodales. La gran mayoría de los modelos de IA se entrenan en inglés y con datos que representan principalmente contextos occidentales, lo que deja fuera perspectivas valiosas de la mayor parte del mundo.

Además, la carrera hacia la construcción de modelos más grandes conducirá a un mayor agotamiento de los recursos naturales y mayores impactos del cambio climático, que ya afectan de manera desproporcionada a los países del Sur Global.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Un número significativo de herramientas y sistemas de IA que se han implementado públicamente exageran sus capacidades y simplemente no funcionan. Muchas tareas para las que la gente pretende utilizar la IA probablemente podrían resolverse mediante algoritmos más simples o una automatización básica.

Además, la IA generativa tiene la capacidad de exacerbar los daños observados en herramientas de IA anteriores. Durante años, hemos visto cómo estas herramientas exhiben sesgos y conducen a una toma de decisiones perjudiciales contra comunidades vulnerables, lo que probablemente aumentará a medida que la IA generativa crezca en escala y alcance.

Sin embargo, permitir que las personas con conocimientos comprendan las limitaciones de la IA puede ayudar a mejorar la adopción y el uso responsable de estas herramientas. Mejorar la inteligencia artificial y la alfabetización en datos entre el público en general será fundamental a medida que las herramientas de inteligencia artificial se integren rápidamente en la sociedad.

¿Cuál es la mejor manera de construir IA de manera responsable?

La mejor manera de desarrollar IA de manera responsable es ser crítico con los casos de uso previstos y no previstos de estas herramientas. Las personas que construyen sistemas de IA tienen la responsabilidad de oponerse a que la IA se utilice en escenarios dañinos en la guerra y la vigilancia policial y deben buscar orientación externa si la IA es apropiada para otros casos de uso a los que puedan estar apuntando. Dado que la IA suele ser un amplificador de las desigualdades sociales existentes, también es imperativo que los desarrolladores e investigadores sean cautelosos a la hora de crear y seleccionar conjuntos de datos que se utilizan para entrenar modelos de IA.

¿Cómo pueden los inversores impulsar mejor una IA responsable?
Muchos argumentan que el creciente interés de los capitalistas de riesgo en “sacar provecho” de la actual ola de IA ha acelerado el aumento del “aceite de serpiente de la IA”, acuñado por Arvind Narayanan y Sayash Kapoor. Estoy de acuerdo con este sentimiento y creo que los inversores deben asumir posiciones de liderazgo, junto con los académicos, las partes interesadas de la sociedad civil y los miembros de la industria, para abogar por el desarrollo responsable de la IA. Como inversor ángel, he visto muchas herramientas de inteligencia artificial dudosas en el mercado. Los inversores también deberían invertir en experiencia en IA para examinar a las empresas y solicitar auditorías externas de las herramientas demostradas en las presentaciones.

¿Algo más que desees agregar?

Este “verano de la IA” en curso ha llevado a una proliferación de “expertos en IA” que a menudo restan importancia a conversaciones importantes sobre los riesgos y daños actuales de la IA y presentan información engañosa sobre las capacidades de las herramientas habilitadas para la IA. Animo a aquellos interesados ​​en educarse sobre la IA a que sean críticos con estas voces y busquen fuentes confiables de las cuales aprender.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00