En su reciente publicación en el blog de Google Cloud, Phil Venables, vicepresidente de seguridad de TI y CISO de Google Cloud, destaca la importancia de que los proveedores de IA compartan las investigaciones sobre vulnerabilidades. Enfatiza que esta transparencia es crucial para generar confianza en la tecnología de IA, especialmente dada su rápida evolución. Google se toma muy en serio la investigación en ciberseguridad y ha invertido mucho en explorar los riesgos de la IA y desarrollar mejores defensas cibernéticas. En particular, el equipo de investigación de vulnerabilidades de Google Cloud descubrió y corrigió vulnerabilidades previamente desconocidas en Vertex AI. Venables insta a los desarrolladores de IA a normalizar el intercambio de investigaciones sobre seguridad de la IA, abogando por un futuro en el que la IA generativa sea segura por defecto. Google Cloud aspira a liderar este esfuerzo promoviendo la transparencia, compartiendo información y fomentando debates abiertos sobre las vulnerabilidades de la IA. Argumenta que ocultar las vulnerabilidades solo aumenta el riesgo de que persistan problemas similares en otras plataformas. En cambio, la industria debería esforzarse por facilitar la búsqueda y la corrección de vulnerabilidades. Venables concluye haciendo un llamamiento a un esfuerzo colectivo para elevar el nivel de seguridad de la IA, trabajando para lograr un futuro en el que los modelos de IA sean seguros por defecto.