Mai 2025

Künstliche Intelligenz (KI) Teil 2 - Gefahren und Regulierung

Welche Gefahren birgt der Einsatz von KI?
Künstliche Intelligenz errechnet die statistisch am wahrscheinlichsten richtige Antwort auf eine Frage bzw. ein Problem basierend auf den Trainingsdaten. Daher besteht die Gefahr, dass die KI Falschinformationen produziert. Des Weiteren ist die Qualität der Antwort stark abhängig von der Qualität der Frage bzw. des eingegebenen Textes („Prompt“). Da außerdem nicht transparent ist, wie mit den eingegebenen Daten umgegangen wird bspw. hinsichtlich Speicherung und Wiederausgabe besteht die Gefahr von Datenschutz- und Informationssicherheitsverletzungen. Zusätzlich ist die KI abhängig von den verwendeten Trainingsdaten, wodurch die Gefahr der Manipulation entsteht.

Wie wird KI reguliert?
KI wird europaweit durch die 2024 beschlossene „Verordnung über künstliche Intelligenz“/KI-Verordnung (KI-VO) reguliert. Die KI-Verordnung der EU ist die weltweit erste umfassende gesetzliche Regelung für KI.

Risikoklassen von Künstlicher Intelligenz
Im Rahmen der KI-Verordnung werden KI-Anwendungen in Risikoklassen unterteilt.

  1. Unannehmbares Risiko
    KI-Anwendungen dieser Risikoklasse werden eingesetzt, um Menschen zu manipulieren, ihr soziales Verhalten zu bewerten (Social Scoring) oder sie biometrisch zu kategorisieren (um daraus die ethnische Herkunft, politische Auffassungen, die Zugehörigkeit zu einer Gewerkschaft, religiöse oder weltanschauliche Überzeugungen oder die sexuelle Orientierung abzuleiten)
    Diese KI-Anwendungen sind in der EU verboten.

  2. Hohes Risiko
    KI-Systeme, die sich potenziell nachteilig auf die Sicherheit der Menschen oder ihre Grundrechte auswirken, gelten als Hochrisiko-KI-Systeme. Zu solchen Hochrisiko-KI-Systemen gehören beispielsweise KI-Systeme, mit denen bewertet wird, ob jemand eine bestimmte medizinische Behandlung erhalten kann, für einen bestimmten Arbeitsplatz geeignet ist oder ein Darlehen für den Kauf einer Wohnung erhalten soll. Außerdem können auch KI-Systeme, mit denen Roboter, Drohnen oder Medizinprodukte betrieben werden, als Hochrisiko-Systeme eingestuft werden.
    Für Hochrisiko-KI-Systeme gelten strenge Auflagen, bspw. Transparenzverpflichtungen, menschliche Aufsicht, ein Risikomanagementsystem, etc.

  3. Begrenztes Risiko
    Unter diese Kategorie fallen KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, z.B. Chatbots wie ChatGPT. Diese KI-Systeme unterliegen Transparenzanforderungen, d.h. die Nutzer müssen darauf hingewiesen werden, dass sie mit einer KI interagieren, sofern dies nicht offensichtlich ist.

  4. Minimales Risiko
    Alle anderen KI-Anwendungen, die nicht in oben genannte Kategorien gehören, stellen kein oder lediglich ein minimales Risiko dar und fallen daher nicht unter die KI-Verordnung. Beispiele hierfür sind Videospiele, Rechtschreibprüfungen oder Spamfilter.

Falls Sie Fragen zum Thema KI haben, kontaktieren Sie uns unter: datenschutz@perico-gmbh.de
Wir wünschen Ihnen eine datenpannenfreie Zeit.


← Zurück zur Übersicht

Weitere Beiträge



Januar 2025

Mobile Arbeit

Mobile Arbeit bezieht sich auf das Arbeiten von zu Hause oder unterwegs aus. Was ist bei Mobiler Arbeit zu beachten? …

März 2025

Künstliche Intelligenz (KI) Teil 1 – Was ist KI?

Was ist Künstliche Intelligenz? Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich mit der …