ChatGPT zeigt uns deutlich, wozu KI heute schon in der Lage ist. Der Einsatz von KI wird in den kommenden Jahren weiter zunehmen. Hier gilt es, Regeln aufzustellen, um die Entwicklung und den Einsatz von KI vertrauenswürdig zu gestalten.
Verbindliche Regeln für eine KI: Damit ein KI-System vertrauenswürdig ist, müssen Regeln aufgestellt werden.
ChatGPT stößt seit November letzten Jahres auf großes Interesse. Der Vorteil: Nutzer können sich mit dem Algorithmus über jedes beliebige Thema unterhalten. Allerdings reicht das Wissen nur bis 2021. Neuere Versionen der künstlichen Intelligenz versprechen Abhilfe.
KI ist nicht nur im Alltag nützlich, um riesige Datenmengen in kurzer Zeit zu durchsuchen. In der Elektronikindustrie kann der Sprachbot beim Design von Leiterplatten helfen. Doch immer bleibt die Frage: Wie vertrauenswürdig ist eine KI? Regeln für die Entwicklung und den Einsatz von KI schützen vor möglichen Gefahren. Dazu braucht es einheitliche Regeln für faire Wettbewerbsbedingungen. Überregulierung bremst den Fortschritt.
Drei Regeln für eine vertrauenswürdige KI
Damit eine künstliche Intelligenz vertrauenswürdig ist, muss sie drei Punkte erfüllen:
Ethisch einwandfrei,
technisch zuverlässig und
wirtschaftlich fair.
Ethisch einwandfrei meint, ethische Prinzipien einzuhalten und demokratische Werte. Ebenso wie vor dem Gesetz sollte auch durch ein KI-System niemand ungleich oder unfair behandelt werden. Ein KI-System sollte technisch so ausgereift sein, dass es sicher und zuverlässig eingesetzt werden kann. Das KI-System muss bestimmungsgemäß und ohne unerwünschte Nebenwirkungen funktionieren. Für die Nutzer muss jederzeit klar sein, welche Daten zu welchem Zweck verarbeitet werden.
Eine vertrauenswürdige KI-Anwendung sollte Eigentumsrechte sowie Chancengleichheit und Fairness auf dem Markt respektieren. Um Monopolstellungen oder ungleiche Wettbewerbsbedingungen durch KI-Anwendungen zu vermeiden, sollten KI-Systeme möglichst viele offene Schnittstellen für verschiedene Anwendungsszenarien bieten.
Regeln für die KI und wer sie setzt
„KI ist häufig in visionäre Erzählungen eingebettet, in denen kein belastbares Wissen über Gefahren und Risiken besteht. Weiterhin verändern sich KI-Systeme durch Maschinelles Lernen. Eine Technikfolgenabschätzung für KI-Systeme muss daher auch mögliche Risiken nicht-intendierten Lernens betrachten und über einprogrammierte Leitplanken des Lernens nachdenken“, sagt Prof. Dr. Armin Grundwald. Er ist Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) am KIT, Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und Mitglied in der Plattform Lernende Systeme.
Damit es zu keinem Missbrauch einer KI kommen kann, sind Regeln notwendig. Gesetzt werden können die Regeln von Unternehmen, Verbänden oder politischen Institutionen. Sie gelten entweder für einzelne Betriebe, ganze Branchen oder die Allgemeinheit.
Entwickeln und verwenden Unternehmen oder Institutionen eine KI, dann sollten sie sich freiwillig verpflichten, bestimmte Standards zu entsprechen. Solche Regeln orientieren sich beispielsweise an technischer Robustheit, Reproduzierbarkeit und Sicherheit von KI-Systemen. Ein KI-System sollte möglichst erklärbar konzipiert und diskriminierungsfrei sein.
Marktstandard und Qualität der KI-Systeme erhöhen
Wenn Unternehmen und Institute Regeln definieren, heben sie damit den Marktstandard und verbessern die Qualität der KI-Systeme. Viele Unternehmen schließen sich zusammen und es kommt nicht zu einer Überregulierung. Beispiele für Regeln aus der Praxis hat das Fraunhofer Institut (IAIS) im „Leitfaden zur Gestaltung vertrauenswürdiger KI“ zusammengefasst.
„Es sind die Pflichten der Betriebe zu stärken. Es ist dringend erforderlich Nutzungsregeln im Sinne einer betrieblichen Folgenabschätzung für KI in der Arbeitswelt zu implementieren. Hierzu gehören Fragen wie zum Beispiel Auswirkungen auf Beschäftigung (Rationalisierungswirkung), Qualifizierungsbedarfe oder Belastungsveränderungen“, sagt Oliver Suchy, Mitglied im Bundesvorstand des Deutschen Gewerkschaftsbundes DGB und Mitglied in der Plattform Lernende Systeme.
AI ACT der Europäischen Kommission
Auf europäischer Ebene hat das EU-Parlament ein gemeinsames Regelwerk entwickelt, mit dem eine vertrauenswürdige KI möglich sein soll. Die Europäische Kommission hat 2021 den Artificial Intelligence (AI) Act vorgelegt und die Mitgliedsstaaten der EU sowie Wirtschafts- und zivilgesellschaftliche Akteure haben diesen 2022 kommentiert. Diese Regeln gelten als der erste transnationale Versuch, KI mit verbindlichen und gemeinsam ausgehandelten Normen zu gestalten. Damit nimmt die EU eine Vorreiterrolle zugunsten der europäischen Gesellschaft und Wirtschaft ein.
Dem Entwurf der Europäischen Kommission folgend sollen Regeln für KI entsprechend ihrem Gefahrenpotenzial bestimmt werden. Die Kommission sieht vor, KI-Anwendungen in vier Risikostufen zu klassifizieren, vom minimalen Risiko bis hin zum inakzeptablen Risiko.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Wenn von KI-Systemen erhebliche Risiken für die Gesundheit und die Grundrechte von Personen, für Rechtsgüter oder die Umwelt ausgehen, wie es im Vorschlag der Europäischen Kommission heißt, ist ihre Entwicklung und Einsatz nur unter bestimmten Bedingungen erlaubt. Für Hochrisiko-KI-Systeme, deren Risiken als unannehmbar eingestuft werden, soll ein pauschales Verbot gelten, etwa für sogenanntes Social Scoring durch staatliche Stellen.
Bestehende Leitfäden und Prüfkataloge in Deutschland
In Deutschland haben unterschiedliche Akteure aus der Standardisierung und KI-Forschung erste Angebote entwickelt, um Regeln für KI-Systeme voranzutreiben.
Bundesamt für Sicherheit in der Informationstechnik (BSI): Einen Kriterien-Katalog für KI in Cloud-Diensten AIC4. Hier sind Mindestanforderungen von Methoden des maschinellen Lernens in Cloud-Diensten definiert.
DIN: Neben einer KI-Normungsroadmap mit übergreifendem und richtungsweisendem Charakter, entwickelt DIN konkrete und praxisnahe Regelsätze.
Fraunhofer-Institut (IAIS): Ein Prüfkatalogmit Leitfäden zur Gestaltung vertrauenswürdiger KI durch Entwickler und Anwender sowie ein Beratungsangebot von Experten. Ziel ist eine transparente, verlässliche, sichere und datenschutzkonforme KI-Anwendung.
Institut der Wirtschaftsprüfer in Deutschland (IDW): Entwurf eines Prüfungsstandards zur standardisierten Prüfung von KI-Systemen.
AI Ethics Impact Group: Ein Rahmenwerk, um ethische Prinzipien für KI-Systeme in die Praxis zu übertragen.
„Bei der Bewertung der Kritikalität müssen normative Anforderungen an KI-Systeme benannt und Wertkonflikte diskutiert werden. Welche Risiken sind für wen akzeptabel? Kann der Nutzen einer Anwendung gegen einen möglichen Schaden aufgerechnet werden?", fragt PD. Dr. Jessica Heesen, Leiterin der Forschungsstelle Medienethik an der Universität Tübingen und AG-Leiterin der Plattform Lernende Systeme.
Dieser Beitrag erschien zuerst auf unserem Schwesterportal ELEKTRONIKPRAXIS.