La IA generativa tiene el potencial de cambiarlo todo. Puede informar nuevos productos, empresas, industrias e incluso economías. Pero lo que la hace diferente y mejor que la IA “tradicional” también podría hacerla peligrosa.
Su capacidad única para crear ha abierto un conjunto completamente nuevo de preocupaciones de seguridad y privacidad.
De repente, las empresas tienen que hacerse nuevas preguntas: ¿Tengo los derechos sobre los datos de capacitación? al modelo? ¿A las salidas? ¿El sistema en sí tiene derechos sobre los datos que se crean en el futuro? ¿Cómo se protegen los derechos a ese sistema? ¿Cómo controlo la privacidad de los datos en un modelo que utiliza IA generativa? La lista continua.
No sorprende que muchas empresas estén pisando a la ligera. Las vulnerabilidades flagrantes de seguridad y privacidad, junto con la vacilación de confiar en las soluciones Band-Aid existentes, han llevado a muchos a prohibir estas herramientas por completo. Pero hay esperanza.
La informática confidencial, un nuevo enfoque de la seguridad de los datos que protege los datos mientras están en uso y garantiza la integridad del código, es la respuesta a las preocupaciones de seguridad más complejas y serias de los modelos de lenguaje extenso (LLM). Está preparado para ayudar a las empresas a aprovechar todo el poder de la IA generativa sin comprometer la seguridad. Antes de explicar, primero echemos un vistazo a lo que hace que la IA generativa sea especialmente vulnerable.
La IA generativa tiene la capacidad de ingerir los datos de toda una empresa, o incluso un subconjunto rico en conocimientos, en un modelo inteligente consultable que proporciona nuevas ideas al instante. Esto tiene un gran atractivo, pero también hace que sea extremadamente difícil para las empresas mantener el control sobre sus datos patentados y cumplir con los requisitos normativos en evolución.
La protección de los datos y modelos de entrenamiento debe ser la máxima prioridad; ya no es suficiente cifrar campos en bases de datos o filas en un formulario.
Esta concentración de conocimiento y los resultados generativos subsiguientes, sin una seguridad de datos adecuada y un control de confianza, podrían convertir inadvertidamente la IA generativa en un arma para el abuso, el robo y el uso ilícito.
De hecho, los empleados introducen cada vez más documentos comerciales confidenciales, datos de clientes, código fuente y otras piezas de información regulada en los LLM. Dado que estos modelos están parcialmente entrenados en nuevas entradas, esto podría dar lugar a importantes filtraciones de propiedad intelectual en caso de incumplimiento. Y si los propios modelos se ven comprometidos, cualquier contenido que una empresa haya estado legal o contractualmente obligada a proteger también podría filtrarse. En el peor de los casos, el robo de un modelo y sus datos permitiría que un competidor o un actor del estado-nación dupliquen todo y roben esos datos.
Estas son apuestas altas. Gartner descubrió recientemente que el 41% de las organizaciones han experimentado una violación de la privacidad de la IA o un incidente de seguridad, y más de la mitad son el resultado de un compromiso de datos por parte de una parte interna. El advenimiento de la IA generativa seguramente aumentará estos números.
Por separado, las empresas también deben mantenerse al día con las regulaciones de privacidad en evolución cuando invierten en IA generativa. En todas las industrias, existe una gran responsabilidad y un incentivo para cumplir con los requisitos de datos. En el cuidado de la salud, por ejemplo, la medicina personalizada impulsada por IA tiene un enorme potencial cuando se trata de mejorar los resultados de los pacientes y la eficiencia general. Pero los proveedores y los investigadores deberán acceder y trabajar con grandes cantidades de datos confidenciales de los pacientes sin dejar de cumplir, lo que presenta un nuevo dilema.
Para abordar estos desafíos y el resto que inevitablemente surgirán, la IA generativa necesita una nueva base de seguridad. La protección de los datos y modelos de entrenamiento debe ser la máxima prioridad; ya no es suficiente cifrar campos en bases de datos o filas en un formulario.
En escenarios donde los resultados de la IA generativa se utilizan para decisiones importantes, la evidencia de la integridad del código y los datos, y la confianza que transmite, será absolutamente fundamental, tanto para el cumplimiento como para la gestión de posibles responsabilidades legales. Debe haber una manera de proporcionar una protección hermética para todo el cálculo y el estado en el que se ejecuta.
El advenimiento de la IA generativa “confidencial”
La computación confidencial ofrece una forma simple, pero enormemente poderosa, de lo que de otro modo parecería ser un problema intratable. Con la computación confidencial, los datos y la IP están completamente aislados de los propietarios de la infraestructura y solo son accesibles para aplicaciones confiables que se ejecutan en CPU confiables. La privacidad de los datos se garantiza mediante el cifrado, incluso durante la ejecución.
La seguridad y la privacidad de los datos se convierten en propiedades intrínsecas de la computación en la nube, tanto que incluso si un atacante malicioso viola los datos de la infraestructura, la IP y el código son completamente invisibles para ese mal actor. Esto es perfecto para la IA generativa, ya que mitiga sus riesgos de seguridad, privacidad y ataques.
La computación confidencial ha ido ganando terreno cada vez más como un cambio de juego de seguridad. Todos los principales proveedores de la nube y fabricantes de chips están invirtiendo en él, y los líderes de Azure, AWS y GCP proclaman su eficacia. Ahora, la misma tecnología que está convirtiendo incluso a los reticentes a la nube más firmes podría ser la solución que ayude a la IA generativa a despegar de forma segura. Los líderes deben comenzar a tomarlo en serio y comprender sus profundos impactos.
Con la computación confidencial, las empresas obtienen la seguridad de que los modelos de IA generativa solo aprenden sobre los datos que pretenden usar, y nada más. La capacitación con conjuntos de datos privados en una red de fuentes confiables en las nubes brinda control total y tranquilidad. Toda la información, ya sea una entrada o una salida, permanece completamente protegida y detrás de las cuatro paredes propias de una empresa.