Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.
Anna Korhonen es profesora de procesamiento del lenguaje natural (PNL) en la Universidad de Cambridge. ella es también investigador senior en Universidad Churchillmiembro de la Asociación de Lingüística Computacional, y miembro del Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes.
Korhonen trabajó anteriormente como miembro del Alan Turing y tiene un doctorado en informática y una maestría en informática y lingüística. Ella investiga la PNL y cómo Desarrollar, adaptar y aplicar técnicas computacionales para satisfacer las necesidades de la IA. ella tiene un interés particular en PNL responsable y “centrada en el ser humano” que, en sus propias palabras, “se basa en la comprensión de la inteligencia cognitiva, social y creativa humana”.
Preguntas y respuestas
Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?
Siempre me fascinó la belleza y la complejidad de la inteligencia humana, particularmente en relación con el lenguaje humano. Sin embargo, mi interés por las materias STEM y sus aplicaciones prácticas me llevó a estudiar ingeniería e informática. Elegí especializarme en IA porque es un campo que me permite combinar todos estos intereses.
¿De qué trabajo estás más orgulloso en el campo de la IA?
Si bien la ciencia de construir máquinas inteligentes es fascinante y uno puede perderse fácilmente en el mundo del modelado de lenguajes, la razón fundamental por la que estamos construyendo IA es su potencial práctico. Estoy muy orgulloso del trabajo en el que mi investigación fundamental sobre el procesamiento del lenguaje natural ha conducido al desarrollo de herramientas que pueden apoyar el bien social y global. Por ejemplo, herramientas que pueden ayudarnos a comprender mejor cómo se desarrollan y pueden tratar enfermedades como el cáncer o la demencia, o aplicaciones que puedan apoyar la educación.
Gran parte de mi investigación actual está impulsada por la misión de desarrollar una IA que pueda mejorar la vida humana. La IA tiene un enorme potencial positivo para el bien social y global. Una gran parte de mi trabajo como educador es alentar a la próxima generación de científicos y líderes de IA a concentrarse en aprovechar ese potencial.
¿Cómo se enfrentan los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la IA dominada por los hombres?
Tengo la suerte de trabajar en un área de IA donde tenemos una población femenina considerable y redes de apoyo establecidas. Estos me han resultado inmensamente útiles para afrontar desafíos profesionales y personales.
Para mí, el mayor problema es cómo la industria dominada por los hombres establece la agenda para la IA. La actual carrera armamentista para desarrollar modelos de IA cada vez más grandes a cualquier precio es un gran ejemplo. Esto tiene un enorme impacto en las prioridades tanto de la academia como de la industria, y tiene implicaciones socioeconómicas y ambientales de amplio alcance. ¿Necesitamos modelos más grandes y cuáles son sus costos y beneficios globales? Siento que habríamos hecho estas preguntas mucho antes en el juego si hubiéramos tenido un mejor equilibrio de género en el campo.
¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?
AI necesita desesperadamente más mujeres en todos los niveles, pero especialmente en el nivel de liderazgo. La cultura de liderazgo actual no es necesariamente atractiva para las mujeres, pero la participación activa puede cambiar esa cultura y, en última instancia, la cultura de la IA. Es tristemente célebre que las mujeres no siempre sean buenas para apoyarse unas a otras. Realmente me gustaría ver un cambio de actitud a este respecto: debemos trabajar activamente en red y ayudarnos mutuamente si queremos lograr un mejor equilibrio de género en este campo.
¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
La IA se ha desarrollado increíblemente rápido: ha evolucionado de un campo académico a un fenómeno global en menos de una década. Durante este tiempo, la mayor parte del esfuerzo se ha destinado a escalar a través de datos y computación masivos. Se han dedicado pocos esfuerzos a pensar cómo debería desarrollarse esta tecnología para que pueda servir mejor a la humanidad. La gente tiene buenas razones para preocuparse por la seguridad y la confiabilidad de la IA y su impacto en el empleo, la democracia, el medio ambiente y otras áreas. Necesitamos urgentemente poner las necesidades humanas y la seguridad en el centro del desarrollo de la IA.
¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?
La IA actual, incluso cuando parece muy fluida, en última instancia carece del conocimiento del mundo que tienen los humanos y de la capacidad de comprender los complejos contextos y normas sociales con los que operamos. Incluso lo mejor de la tecnología actual comete errores, y nuestra capacidad para prevenir o predecir esos errores es limitada. La IA puede ser una herramienta muy útil para muchas tareas, pero no confiaría en ella para educar a mis hijos ni tomar decisiones importantes por mí. Los humanos deberíamos seguir a cargo.
¿Cuál es la mejor manera de construir IA de manera responsable?
Los desarrolladores de IA tienden a pensar en la ética como una ocurrencia tardía, una vez que la tecnología ya se ha desarrollado. La mejor manera de pensarlo es antes cualquier desarrollo comienza. Preguntas como: “¿Tengo un equipo lo suficientemente diverso como para desarrollar un sistema justo?” o “¿Mis datos son realmente de uso gratuito y representativos de todas las poblaciones de usuarios?” o “¿Son mis técnicas sólidas?” realmente debería preguntarse desde el principio.
Aunque podemos abordar parte de este problema a través de la educación, sólo podemos hacerlo cumplir mediante la regulación. El reciente desarrollo de regulaciones nacionales y globales sobre IA es importante y debe continuar garantizando que las tecnologías futuras sean más seguras y confiables.
¿Cómo pueden los inversores impulsar mejor una IA responsable?
Están surgiendo regulaciones sobre IA y, en última instancia, las empresas tendrán que cumplirlas. Podemos pensar en la IA responsable como una IA sostenible en la que realmente vale la pena invertir.