Un sistema impulsado por IA pronto podría asumir la responsabilidad de evaluar los posibles daños y los riesgos de privacidad de hasta el 90% de las actualizaciones realizadas a meta aplicaciones como Instagram y WhatsApp, según documentos internos según los informes vistos por NPR.
NPR dice que un acuerdo de 2012 entre Facebook (ahora Meta) y la Comisión Federal de Comercio requieren que la Compañía realice revisiones de privacidad de sus productos, evaluando los riesgos de cualquier actualización potencial. Hasta ahora, esas revisiones han sido realizadas en gran medida por evaluadores humanos.
Según el nuevo sistema, Meta, según los informes, se les pedirá a los equipos de productos que completen un cuestionario sobre su trabajo, luego generalmente recibirán una “decisión instantánea” con riesgos identificados por AI, junto con los requisitos que una actualización o función debe cumplir antes de que se lance.
Este enfoque centrado en la IA permitiría a Meta actualizar sus productos más rápidamente, pero un ex ejecutivo le dijo a NPR que también crea “mayores riesgos”, ya que “es menos probable que se eviten los cambios negativos de los cambios de productos antes de que comiencen a causar problemas en el mundo”.
En una declaración, Meta parecía confirmar que está cambiando su sistema de revisión, pero insistió en que solo se automatizarán las “decisiones de bajo riesgo”, mientras que la “experiencia humana” aún se utilizará para examinar “problemas novedosos y complejos”.