CIBERSEGURIDAD
Google pone en marcha un programa de recompensas exclusivo para vulnerabilidades en IA
Con esta iniciativa, la compañía busca responder a las inquietudes de desarrolladores e investigadores en ciberseguridad que hasta ahora han planteado dudas sobre las recompensas otorgadas en los programas generales de detección de fallos.
Cibersur.com | 07/10/2025 10:46
Google ha anunciado la creación de un nuevo programa dedicado a identificar fallos en sus sistemas de inteligencia artificial (IA), que ofrece recompensas de hasta 30 000 dólares para quienes detecten vulnerabilidades relevantes.
Con esta iniciativa, la compañía busca responder a las inquietudes de desarrolladores e investigadores en ciberseguridad que hasta ahora han planteado dudas sobre las recompensas otorgadas en los programas generales de detección de fallos. El nuevo esquema se centra específicamente en errores o vulnerabilidades dentro de productos de IA, diferenciándose de los programas anteriores orientados a abusos o fallas más genéricas.
El programa de recompensas para inteligencia artificial abarca seis tipos de fallos que Google considera críticos:
- Ataques de denegación de servicio entre usuarios.
- Uso no autorizado del sistema.
- Omisión en controles de acceso con impacto limitado.
- Manipulación del contexto entre cuentas.
- Robo de modelos.
Además, el plan distingue tres niveles de producto (clave, estándar y otros) para determinar el alcance de cada recompensa. En el nivel más alto, los informes pueden recibir una premiación básica de 20 000 USD, aunque esta cifra puede ampliarse hasta 30 000 USD si se aplica un multiplicador por condiciones extraordinarias.
Aunque el enfoque es claro en el ámbito de la seguridad, Google excluye del alcance de este nuevo programa las vulnerabilidades relacionadas únicamente con el contenido de los sistemas, pues esas cuestiones quedan cubiertas por otros mecanismos internos ya existentes.
Con este anuncio, Google refuerza su apuesta por incentivar colaboraciones con la comunidad técnica para anticipar y corregir vulnerabilidades en sus soluciones de inteligencia artificial, fortaleciendo así la seguridad global de sus plataformas.