Die Vermessung der Menschheit: Personalisierte KI

Sam Altman von OpenAI über die Vermessung der Menschheit

Personalisierte KI ist weit besser als wir es zu hoffen wagen! Die KI trifft Muster, Ton und Präferenzen Einzelner. Und reagiert darauf situativ. Scheint hier die Vermessung der Menschheit wahr zu werden? Wie können wir diese KI nutzen? Und was ist rechtlich erlaubt? Und sind wir schon bei AGI-ähnlichen Marken bei der Personalisierung?

Die Ausgangsfrage

Jensen Huang, CEO von Nvidia, stellt fest, dass Fakten für die KI leicht zu erfassen sind. Doch die Frage nach Wahrheit ist durchaus komplizierter, behauptet Huang.

„Fakten sind, was ist.
Wahrheit ist, was es bedeutet.“

Jensen Huang

Die verblüffende Antwort von Sam Altman

Sam Altman stellt vorweg, dass er diese Definition bewusst nicht hinterfragt, weil es den Rahmen sprengen würde. Er antwortet weiter:

„KI kann sich fließend an unterschiedliche kulturelle Kontexte und Individuen anpassen. Eine meiner Lieblingsfunktionen, die wir jemals in ChatGPT eingeführt haben, ist eine Art von erweitertem Gedächtnis, die Anfang dieses Jahres herauskam. Es ist wie, es fühlt sich wirklich so an, als würde mein ChatGPT mich kennenlernen und wissen, was mir wichtig ist, meine Lebenserfahrungen und meinen Hintergrund verstehen und die Dinge, die mich dorthin gebracht haben, wo ich jetzt bin.

Ein Freund von mir, ein begeisterter GPT-Nutzer, hat all diesen Unterhaltungen viel Leben eingehaucht. Er hat seinem ChatGPT eine Reihe von Persönlichkeitstests gegeben und es gebeten, so zu antworten, als wäre es er selbst, und es hat die gleichen Ergebnisse erzielt, die er tatsächlich erzielt hat, obwohl er nie wirklich über seine Persönlichkeit gesprochen hatte.“
(Eigene Übersetzung, vgl. Originalinterview.)

Mit der Memory-Funktion lässt ChatGPT ganz persönlich auf den Nutzer eingehen.

„A friend of mine, huge CPT user, he has put a lot of life into all these conversations.
He gave his ChatGPT a bunch of personality tests and asked them to answer as if they were him and it got the same scores he actually got, ever through he’d never really talked about his personality.“

Sam Altman

Die KI kennt ihre User ganz genau. Es ist schon fast wie die Vermessung der Mesnchheit. Hier liegt der eigene Einsatz der KI ganz nahe.

Warum „KI statt Persönlichkeits-Test“ nicht geht

Doch hier ist große Vorsicht geboten. Unternehmen dürfen die KI nicht als Profiling-Tool benutzen. Was spricht dagegen?

Oft feht die Rechtsgrundlage. Beschäftigtendaten dürfen nur verarbeitet werden, wenn es für das Arbeitsverhältnis erforderlich ist (§ 26 BDSG). „Neugier“ oder Bequemlichkeit reichen hierfür nicht aus. Datenschutz-Grundverordnung (DSGVO)Buzer

Die Bewerbungs- und HR-Entscheidungen dürfen nicht allein automatisiert getroffen werden. Betroffene haben Schutzrechte (Art. 22 DSGVO). DSGVOedpb.europa.eu

Tools, die Verhalten/Leistung überwachen oder bewerten unterliegen der Mitbestimmung des Betriebsrats (§ 87 Abs. 1 Nr. 6 BetrVG).

Im EU-AI-Act (seit 02/2025) ist festgelegt, dass Emotionserkennung am Arbeitsplatz und in der Schule verboten sind. HR-Einsatz zählt zu Hochrisiko-Bereichen mit Pflichten. Künstliche Intelligenz Gesetz EU

AGG-Risiko: Jede Bewertung, die indirekt zu Benachteiligung führt, kann diskriminierend sein. Gesetze im Internet Industrie- und Handelskammer

KI darf kein Schlupfloch sein. Wenn ein Test unzulässig wäre, sind die gleichen Auswertungen mit KI typischerweise auch unzulässig. Doch gibt es Alternativen?

Alternativen

Doch was ist erlaubt? Was geht?

Ein Learning-/Coach-Modus, der freiwillig und ohne Konsequenzen ist, ist eher unproblematisch. Es soll ein Opt-in sein und rein für das Selbstlernen bestimmt sein. Es dürfen keine HR-Entscheidungen davon abhängen. Die Transparenz muss stets gegeben sein mit einer Lösch-/Reset-Option bei einer Speicher-Minimierung. (DPIA, Info-Pflichten, Rechtsgrundlage klären.) edpb.europa.eu

Die Skills statt der Persönlichkeit abfragen. Arbeitsproben und Situational Judgement zu konkreten Aufgaben mit menschlicher Bewertung und dokumentierten und mit dem Betriebsrat abgestimmten Kriterien, sind eher unproblematisch. Hier ist die Erforderlichkeit nach § 26 BDSG eher begründbar. Datenschutz-Grundverordnung (DSGVO)

Wenn psychologische KI-Tests durchgeführt werden, dann sind besondere Vorgaben des AI Acts zu beachten. Sie unterliegen den Bestimmungen, die für Hochsicherheitssysteme gelten. Sie dürfen nur mit Jobrelevanz durchgeführt werden. Die getesteten Skills müssen für den bestimmten Job tatsächlich auch nötig sein. Die Tests müssen geeignet sein, diese Skills zu prüfen. Es muss eine Rechtsgrundlage vorliegen. Eine persönlichen Einwilligung der Teilnehmenden verbunden mit einer Aufklärung über den Zweck, Funktionsweise und ihre Rechte muss dokumentiert sein. Es darf kein allein-automatisiertes Scoring durchgeführt werden, sondern es muss ein Mensch die tatsächliche Entscheidung treffen. Der Betriebsrat ist unbedingt einzubinden. Die Teilnehmenden haben Anspruch auf Bekanntgabe des Testergebnisses. Alle weiteren Rechte sind zu beachten.

Mini-Checkliste

  1. Zweck & Rechtsgrundlage (Art. 6 DSGVO/§ 26 BDSG)
  2. Kein Emotion-AI und kein „Act-as-you“-Profiling für HR-Entscheide (AI-Act/Art. 22)
  3. Mensch-in-der-Schleife mit nachvollziehbaren Kriterien
  4. Betriebsrat, DPIA, Transparenzinfos
  5. Speicherbegrenzung, Reset/Opt-out
  6. Bekanntgabe des Testergebnisses
  7. Alle weiteren Rechte beachten!

Nicht alles, was geht, ist auch rechtlich zulässig.
Vorsicht.

Was heißt das?

Wir haben nun KI-Systeme, die die Nutzer sehr gut kennen. Laut dem CEO von OpenAI, Sam Altman, kennt GPT die Persönlichkeit und die Kultur sehr gut. Ihre Daten werden im Ausland gespeichert und sind nun in Deutschland und Europa so nicht nutzbar.

Erreicht nun die KI AGI-Marken bei der Personalisierung?
Wohl noch nicht.
Doch die Betonung liegt auf noch.