Vom Sentiment zur Regulierung: Wie das KI-Gesetz die Zukunft der Sentiment-Analyse beeinflussen kann 

Seit der Einführung des Gesetzes über künstliche Intelligenz (KI-Gesetz) im Januar 2024 ist die Erwartungshaltung der Unternehmen groß die nutzen. KI-Tools. Bei FORCYD hat unser Team aktiv über die möglichen Auswirkungen dieser neuen Verordnung diskutiert. Viele unserer Mitarbeiter sind neugierig darauf, ob die von uns verwendeten KI-Tools verboten oder strengeren Vorschriften unterworfen werden könnten. Während dieser Diskussionen kam ein bestimmtes KI-Tool häufig zur Sprache, was uns zu der Frage veranlasste: Was wird mit der Sentiment-Analyse passieren?

In diesem Blogbeitrag werden wir uns damit beschäftigen, was Sentiment-Analyse ist und wie sie in der eDiscovery-Welt eingesetzt wird. Als Nächstes werden wir die relevanten Artikel des KI-Gesetzes identifizieren und diskutieren, und schließlich wird die potenzielle Zukunft der Sentiment-Analyse unter diesem neuen Rechtsrahmen untersucht.

Bitte beachten Sie, dass dieser Artikel nicht als Rechtsberatung angesehen werden kann und ausschließlich auf dem AI-Gesetz selbst basiert, ohne zusätzliche Kommentare oder Leitlinien.

Was ist Stimmungsanalyse??

Für diejenigen, die mit der Stimmungsanalyse nicht vertraut sind, ist es hilfreich, mit einer kurzen Erklärung zu beginnen. Bei der Stimmungsanalyse handelt es sich um eine Textklassifizierung, bei der KI eingesetzt wird, um Dokumente - z. B. E-Mails und Chat-Kommunikation - nach der Wahrscheinlichkeit zu bewerten, dass der Inhalt eine negative, positive oder neutrale Stimmung enthält. Bei diesem Prozess werden die in der Kommunikation verwendeten Wörter und Sätze sowie der Kontext, in dem sie verwendet werden, analysiert. Diese Analyse hilft dabei, Kommunikation mit ungewöhnlichen oder stark aufgeladenen Interaktionen zwischen den Teilnehmern schnell zu erkennen. Durch die Erkennung ungewöhnlicher Kommunikationen zwischen wichtigen Akteuren ist es möglich, Kommunikationen zu lokalisieren, die einer weiteren Untersuchung bedürfen, und ein tieferes Verständnis der Gespräche und Themen zu entwickeln, die für den vorliegenden Fall wichtig sind. [1][2]

Es ist jedoch wichtig, klarzustellen, dass Emotionserkennung und Stimmungsanalyse zwar häufig synonym verwendet werden, aber nicht dasselbe sind. Die Emotionserkennung, eine Untergruppe der Stimmungsanalyse, bietet tiefere Einblicke in bestimmte Emotionen im Text. Während die Stimmungsanalyse für Aufgaben wie die Verfolgung des Rufs einer Marke oder die Bewertung der öffentlichen Meinung nützlich ist, gelingt es ihr manchmal nicht, die wahren Gefühle hinter den Worten zu erfassen, wie etwa Sarkasmus oder Ironie. An dieser Stelle kommt die Emotionserkennung ins Spiel, die ein differenzierteres Verständnis der beteiligten Emotionen ermöglicht.

Gefühlsanalyse in der eDiscovery

Die Analyse von Gefühlen wird oft zu einem nützlichen Werkzeug bei eDiscovery, insbesondere wenn es darum geht, mit Hilfe zusätzlicher KI-Tools Prioritäten für die Überprüfung von Dokumenten zu setzen. Ein aufschlussreiches Beispiel wäre eine interne Untersuchung, die auf einer Belästigungsklage basiert. In diesem Fall kann die Sentiment-Analyse einfach auf E-Mails und Nachrichten angewendet werden, um feindselige oder aggressive Interaktionen zu identifizieren und so schnell kritische Kommunikation zu identifizieren, die eine weitere Überprüfung rechtfertigt.

Das Tool analysiert den Text Satz für Satz und identifiziert Emotionen anhand bestimmter Indikatorwörter. Diese Wörter werden addiert und in eine Rangfolge gebracht, um eine Gesamtbewertung der Stimmung für jeden Satz zu erhalten, wobei die Gefühle farblich gekennzeichnet sind, damit die Prüfer die Emotionen im Text schnell erkennen können. Es ist jedoch zu beachten, dass es sich bei den Ergebnissen der Stimmungsanalyse nur um eine Vorhersage handelt, weshalb immer eine menschliche Kontrolle erforderlich ist, um Genauigkeit zu erreichen.

Das AI-Gesetz

Das KI-Gesetz definiert ein KI-System als:

 "ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie operieren kann und nach der Bereitstellung Anpassungsfähigkeit zeigt, und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ergebnisse wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen können". [3]

Diese Definition von KI-Systemen betont "Schlussfolgerungen" und "Autonomie" und unterscheidet sie von herkömmlicher Software. Es wird ein breiter, technologieneutraler Ansatz gewählt, um aktuell zu bleiben, was angesichts der schnellen Fortschritte in der KI-Technologie besonders interessant ist. Mit dieser EU-Strategie soll sichergestellt werden, dass die Rechtsvorschriften relevant und wirksam bleiben, auch wenn sich die KI-Technologie weiterentwickelt.

Um die unterschiedlichen Fähigkeiten und Risiken von KI-Systemen besser in den Griff zu bekommen, kategorisiert das KI-Gesetz KI-Anwendungen in drei Stufen: [4]

  1. Anwendungen, die ein inakzeptables Risiko darstellen. Diese KI-Systeme sind vollständig verboten. 
  2. Anwendungen mit hohem Risiko, wie z. B. Tools, die Lebensläufe von Bewerbern scannen und bewerten, müssen bestimmte rechtliche Standards erfüllen.
  3. Anwendungen mit allgemeiner KI, minimalem Risiko oder ohne Risiko haben weniger Verpflichtungen zu erfüllen.

      KI-Systeme, die eine Bedrohung für Personen darstellen, sollen gemäß Art. 5 des KI-Gesetzes [5]. Konkret handelt es sich dabei um Systeme, die das kognitive Verhalten manipulieren, wie z. B. sprachgesteuertes Spielzeug, das zu riskantem Verhalten anregt bei Kinder zu riskantem Verhalten anregen, sowie soziale Bewertungssysteme, die auf Verhalten, sozioökonomischem Status oder persönlichen Merkmalen basieren. Auch biometrische Identifizierungs- und Kategorisierungssysteme, einschließlich biometrischer Echtzeit-Fernidentifizierung wie Gesichtserkennung, fallen unter dieses Verbot. Ausnahmen können für Strafverfolgungszwecke gelten, wobei strenge Bedingungen festgelegt werden.

      Im gleichen Sinne gilt gemäß Art. 6 des AI-Gesetzes gilt ein AI-System als risikoreich, wenn es als Sicherheitskomponente eines Produkts verwendet wird oder wenn es selbst ein Produkt ist, das unter die EU-Rechtsvorschriften fällt. Diese Systeme müssen einer Bewertung durch Dritte unterzogen werden, bevor sie verkauft oder verwendet werden dürfen. Es ist wichtig zu betonen, dass die in Anhang III aufgeführten AI-Systeme automatisch als hochriskant eingestuft werden.

      Gemäß Anhang III, Art. 1(c) [6]werden KI-Systeme, die für die Erkennung von Emotionen eingesetzt werden sollen, als hochriskant eingestuft. Auf der Grundlage von Art. 3 (39) des Gesetzes [7]wird ein Emotionserkennungssystem definiert als:

      "ein KI-System, das dazu dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten zu erkennen oder abzuleiten".

      Biometrische Daten wiederum sind in Artikel 3 (34) definiert [8] als:

      "personenbezogene Daten, die sich aus einer spezifischen technischen Verarbeitung ergeben und die sich auf die physischen, physiologischen oder verhaltensbezogenen Merkmale einer natürlichen Person beziehen, wie z. B. Gesichtsbilder oder daktyloskopische Daten".

      Mit einem klaren Verständnis dafür, wie das KI-Gesetz verschiedene KI-Systeme kategorisiert und reguliert, können wir nun untersuchen, ob die Stimmungsanalyse unter die Verbote oder Einschränkungen dieser Gesetzgebung fällt.

      Gefühlsanalyse und das KI-Gesetz: Navigation durch zukünftige Auswirkungen

      Ausgehend von den einschlägigen Artikeln des AI-Gesetzes und der Funktionsweise der Sentiment-Analyse bei eDiscovery scheint es, dass die Sentiment-Analyse weder nach Art. 5 des AI-Gesetzes verboten ist und auch nicht als hohes Risiko gemäß Art. 6.5

      Im KI-Gesetz wird die "Stimmungsanalyse" nicht ausdrücklich erwähnt, sondern der Begriff "Emotionserkennung" verwendet. Die Erkennung von Emotionen ist, wie bereits erwähnt, eine Untergruppe der Stimmungsanalyse, aber eine anspruchsvollere, die detailliertere Emotionen wie Liebe und Wut erfassen kann. In seiner Definition von Anwendungen zur Erkennung von Emotionen stellt das KI-Gesetz außerdem ausdrücklich fest, dass es sich dabei um KI-Systeme handelt, die auf der Grundlage biometrischer Daten Emotionen oder Absichten von Personen erkennen oder ableiten sollen.

      Biometrische Daten sind nach den Definitionen der EU und des KI-Gesetzes Daten aus der Verarbeitung physischer, physiologischer oder verhaltensbezogener Merkmale, die eine Person eindeutig identifizieren, wie z. B. Gesichtsbilder oder Fingerabdrücke. Die Stimmungsanalyse hingegen verwendet nur Text, um die vorherrschende Stimmung in einem Dokument zu ermitteln, was bedeutet, dass sie in erster Linie nicht unter Anhang III, Art. 1(c) fällt und daher nicht als hohes Risiko eingestuft wird.

      Schließlich ist es wichtig zu erwähnen, dass in den kommenden Monaten Leitlinien und Kommentare sowie Rechtsprechung zu allen Artikeln des KI-Gesetzes erwartet werden, die hoffentlich mehr Klarheit in der vorliegenden Frage schaffen werden. Dies unterstreicht die Notwendigkeit eines fortlaufenden Dialogs und einer Anpassung zwischen regulatorischen Rahmenbedingungen wie dem KI-Gesetz und neu entstehenden KI-Technologien.


      Über den Autor:

      Kopfbild von Natalia Benou

      Natalia Benou ist rechts- und technikbegeistert und arbeitet seit kurzem bei FORCYD als Analystin für Cyberforensik und eDiscovery.

      Natalia hat einen LL.B. in europäischem Recht mit Spezialisierung auf Recht und Technologie und einen LL.M. in Forensik, Kriminologie und Recht. Bevor sie zu FORCYD kam, sammelte Natalia wertvolle Erfahrungen durch mehrere juristische Praktika in den Benelux-Ländern und Griechenland, unter anderem bei AKD Benelux Lawyers in Luxemburg und Zepos & Yannopoulos in Griechenland.

      Referenzen:

      [1] https://www.techtarget.com/searchbusinessanalytics/definition/opinion-mining-sentiment-mining
      [2] https://help.relativity.com/RelativityOne/Content/Relativity/Sentiment_analysis/Running_sentiment_analysis.htm
      [3] Artikel 3 des ACT: https://artificialintelligenceact.eu/article/3/
      [4] https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
      [5] Artikel 5 des AI-Gesetzes: https://artificialintelligenceact.eu/article/5/
      [6] Anhang III Art. 1 (c): https://artificialintelligenceact.eu/annex/3/
      [7] Art 3 (39) des Gesetzes: https://artificialintelligenceact.eu/article/3/
      [8] Art. 3(34) des Gesetzes: https: //artificialintelligenceact.eu/article/3/