Was ist passiert?
Der KI-Chatbot Grok vom Unternehmen xAI hat über 370.000 private Nutzerkonversationen öffentlich zugänglich gemacht. Die Daten waren über Google, Bing und DuckDuckGo auffindbar – darunter auch brisante Inhalte wie:
- Anleitungen zur Herstellung von illegalen Drogen
- Mordpläne, etwa gegen Elon Musk
- Bauanleitungen für Bomben und Malware
- Persönliche Daten, Passwörter, Geschäftsgeheimnisse
Ursache:
Ein Fehler in der „Teilen“-Funktion generierte automatisch indexierbare URLs – ohne Warnung an die Nutzer.
Brisanz:
Die Inhalte widersprechen klar den Nutzungsrichtlinien von xAI, die u. a. den „kritischen Schaden für Menschenleben“ verbieten. Dennoch konnten Google & Co. die Konversationen frei zugänglich machen.
Vergleich zu ChatGPT:
OpenAI hatte ein ähnliches Problem kürzlich rasch behoben. Musk hingegen hatte öffentlich behauptet, Grok sei nicht betroffen – was sich als falsch herausstellte.
FAQ zu Grok-Datenleck
Grok ist ein KI-Chatbot von xAI, dem KI-Unternehmen von Elon Musk.
Durch eine fehlerhafte Teilen-Funktion wurden private Chats als öffentlich indexierbare Webseiten erstellt.
Neben privaten Daten auch illegale Anleitungen zu Drogenherstellung, Bombenbau und sogar Mordpläne.
Die generierten URLs wurden ohne Schutzmechanismen von Suchmaschinen indexiert – Nutzer wurden darüber nicht informiert.
Bisher gibt es keine offizielle Stellungnahme zur Sicherheitslücke. Musk hatte zuvor behauptet, Grok habe keine solche Teilungsfunktion.
Quelle : https://www.golem.de/news/datenleck-bei-grok-hunderttausende-private-ki-chats-im-netz-2508-199380.html