El último modelo de Deepseek, la compañía china de IA que está sacudida en Silicon Valley y Wall Street, puede ser manipulado para producir contenido dañino, como planes para un ataque de biowapon y una campaña para promover la autolesión entre los adolescentes, según el Wall Street Journal .
Sam Rubin, vicepresidente senior de la Unidad de División de Inteligencia de Amenazas y Respuesta a Incidentes de Palo Alto Networks, dijo a The Journal que Deepseek es “más vulnerable al jailbreaking [i.e., being manipulated to produce illicit or dangerous content] que otros modelos “.
La revista también probó el modelo R1 de Deepseek en sí. Aunque parecía haber salvaguardas básicas, Journal dijo que convenció con éxito a Deepseek de diseñar una campaña de redes sociales que, en palabras del chatbot, “se presente en el deseo de los adolescentes de pertenecer, armando la vulnerabilidad emocional a través de la amplificación algorítmica”.
Según los informes, el chatbot también estaba convencido de proporcionar instrucciones para un ataque de bioweapon, escribir un manifiesto pro-hitler y escribir un correo electrónico de phishing con código de malware. El Journal dijo que cuando ChatGPT recibió exactamente las mismas indicaciones, se negó a cumplir.
Anteriormente se informó que la aplicación Deepseek evita temas como Tianamen Square o la autonomía taiwanesa. Y el CEO de Anthrope, Dario Amodei, dijo recientemente que Deepseek realizó “lo peor” en una prueba de seguridad de Biowapons.