Los investigadores que rompieron la protección de GPT-5.5 serán recompensados

La empresa «OpenAI» lanzó el programa «Bio Bug Bounty» con el objetivo de poner a prueba el sistema de seguridad biológica de su nuevo modelo de inteligencia artificial GPT-5.5. En el marco de este proyecto, especialistas buscarán formas de eludir los mecanismos de protección del sistema. Los investigadores deberán comprobar la posibilidad de obtener, con ayuda de la inteligencia artificial, información prohibida en el ámbito biomédico. Openai.com informa sobre ello.
Las solicitudes para participar en el concurso se aceptan hasta el 22 de junio de 2026. Pueden participar en la selección especialistas con experiencia en los campos de la seguridad de la inteligencia artificial, la ciberseguridad y la biomedicina. Los candidatos seleccionados deben superar preguntas de prueba especiales y firmar un acuerdo de confidencialidad.
A los participantes que obtengan un resultado exitoso e identifiquen carencias graves en el sistema se les pagará una recompensa de hasta 25 000 dólares estadounidenses. Con esta iniciativa, la empresa busca hacer que las tecnologías avanzadas de inteligencia artificial sean aún más seguras y prevenir posibles riesgos globales.
¡Lee “Zamin” en Telegram!