L'IA Grok-4 chatbot de xAI d'Elon Musk est victime d'un Jailbreak deux jours après sa sortie,...
16 Jul 2025 / Hacking | Author: intelligence-artificielle.developpez.com
Un rapport a révélé que la dernière version du LLM de xAI, Grok-4, a déjà été victime d'un jailbreak sophistiqué. L'équipe de NeuralTrust a combiné Echo Chamber et Crescendo pour pirater le LLM. L'objectif était d'inciter le modèle à révéler les ...