6 minute gelesen
17/07/2023
Die 4 Säulen der Ethical AI – und warum sie für das maschinelle Lernen wichtig sind
Pangeanic definiert ethische KI durch vier Säulen: Transparenz, Verantwortung, Fairness und Zuverlässigkeit, um sicherzustellen, dass die SLM den Standards des europäischen Gesetzes über KI /AI Risk Management Framework entsprechen. Die enge Zusammenarbeit mit unseren Kunden beim Aufbau ethischer KI-Systeme durchdringt die Kultur von Pangeanic und prägt alles, was wir tun. Doch wir beschränken uns nicht darauf, nur darüber zu sprechen, sondern setzen unsere Worte auch in die Tat um. Zu diesem Zweck möchten wir unsere bewussten Bemühungen in der Datensammlung, Datenaggregation und Datenannotation, im Aufbau von Parallelkorpora für ML-Systeme, die vollständig den 4 Säulen der Ethical AI entsprechen, öffentlich machen. Gemeinsam mit leistungsstarken multilingualen Datenmaskierungs- und Anonymisierungstechnologien erstellen wir Datensätze und entwickeln Lösungen, die auf soliden ethischen KI-Prinzipien basieren.
|
Inhalt: |
Was ist Ethical AI?
Ethical AI ist ein freiwilliges, weltweites Konzept, das sich auf die Gestaltung, Entwicklung, Einführung und Bereitstellung von KI-Systemen bezieht, die die Menschenrechte und gemeinsamen moralischen Werte respektieren. Es konzentriert sich darauf, KI-Systeme zu schaffen, die transparent, fair, verantwortungsbewusst sind und die Privatsphäre respektieren. Die 4 Säulen der Ethical AI sind:
-
Transparenz: Die von KI-Systemen getroffenen Prozesse und Entscheidungen sollten klar, verständlich und nachvollziehbar sein. Dies hilft Benutzern, zu verstehen, wie eine bestimmte Entscheidung oder Ausgabe durch die KI zustande kommt.
-
Fairness: KI-Systeme müssen Voreingenommenheit vermeiden, die zu unfairen Ergebnissen führen oder diskriminieren kann. KI sollte jeden gleich behandeln und Entscheidungen auf Grundlage sachlicher Daten statt auf subjektiven Vorurteilen treffen.
-
Privatsphäre und Sicherheit: KI-Systeme sollten die Privatsphäre der Benutzer respektieren. Das bedeutet, dass sie keine personenbezogenen Daten ohne die Zustimmung des Benutzers sammeln oder verwenden dürfen. Der Schutz der Privatsphäre und der Daten von Einzelpersonen steht im Mittelpunkt von Ethical AI. Dies umfasst die Verwendung geeigneter Techniken zur Datenanonymisierung, die Gewährleistung der Datensicherheit sowie die Einhaltung aller relevanten Datenschutzgesetze und -vorschriften.
-
Verantwortlichkeit: Es sollte eine Möglichkeit geben, diejenigen, die für die Entwicklung und Nutzung von KI-Systemen verantwortlich sind, für ihre Handlungen zur Rechenschaft zu ziehen.
Die Auswirkungen ethischer KI auf die Datensouveränität von Unternehmen
Die Fortschritte in der künstlichen Intelligenz (KI) beginnen, die Art und Weise, wie wir Menschen nicht nur mit Maschinen interagieren, sondern auch mit anderen Menschen in Kontakt treten, Informationen verarbeiten und folglich Entscheidungen treffen, tiefgreifend zu beeinflussen. KI kann die Bereitstellung vieler Güter und Dienstleistungen verbessern, insbesondere in den Bereichen Gesundheitswesen, Finanzdienstleistungen und Technologie. Gleichzeitig besteht jedoch die Gefahr, dass sie zur Voreingenommenheit gegenüber einem bestimmten Ziel oder einer Bevölkerungsgruppe führt, diese vollständig ignoriert oder sogar Fake News erzeugt. Und das ist erst der Anfang.
Mit zunehmender Größe von Big Data und der Ausweitung der Rechenleistung, wenn mehr Daten für mehr Teams verfügbar werden und das Fine-Tuning großer Sprachmodelle und anderer KI-Systeme erschwinglicher wird, erkennen wir, dass die Technologie kurz davor steht, nahezu jeden Aspekt unseres bekannten Daseins zu revolutionieren.
Dieser große Fortschritt bietet eine faszinierende Aussicht, die die Möglichkeit eröffnet, einige unserer größten Herausforderungen für das Wohl der Menschheit anzugehen. Gleichzeitig wirft er jedoch viele berechtigte Bedenken auf. Wie bei jeder neuartigen und sich schnell entwickelnden Technologie wird die universelle Integration von KI eine steile Lernkurve und sehr schnelles Nutzertraining erfordern. Unvermeidliche Fehltritte und Fehleinschätzungen können auftreten und möglicherweise zu unvorhergesehenen und manchmal auch nachteiligen Auswirkungen führen.
Um die Vorteile zu optimieren und den Schaden zu begrenzen, spielt die KI-Ethik eine entscheidende Rolle, indem sie sicherstellt, dass die gesellschaftlichen und ethischen Auswirkungen des Aufbaus und der Bereitstellung von KI-Systemen in jeder Phase berücksichtigt werden. Die KI-Ethik stützt sich auf die vier grundlegenden Säulen der Ethical AI, und um unsere Botschaft zu unterstreichen, müssen Systeme fair, privat, robust und erklärbar sein.
Bisher bekannte Probleme
Wir befinden uns erst in der Anfangsphase der Entwicklung von KI-Systemen, aber wir alle kennen einige Grenzfälle, die gerade aufgrund fehlender ethischer Kontrolle in die Schlagzeilen geraten sind. Hier sind einige Beispiele dafür, wie gegen die einzelnen Säulen verstoßen wurde:
Fairness
Die Verwendung von KI zur Minderung von Voreingenommenheit in Kreditbewertungen verdeutlicht, warum Fairness ein wesentlicher Faktor bei der Gestaltung von KI-Systemen ist. Obwohl Kreditbewertungen oft als unvoreingenommen und objektiv betrachtet werden, haben sie eine lange Geschichte der Diskriminierung, beispielsweise aufgrund von Rasse oder Geschlecht. KI-gesteuerte Kreditbewertungsmodelle bieten eine detailliertere Dateninterpretation und können versteckte Korrelationen zwischen Variablen aufzeigen, die in einem herkömmlichen Kreditbewertungsmodell möglicherweise nicht relevant erscheinen oder sogar enthalten sind – etwa politische Neigungen oder Verbindungen in den sozialen Medien. Die Integration solcher unkonventioneller Informationen in Kreditbewertungen birgt jedoch das Risiko, bestehende Voreingenommenheit zu verschärfen. Es ist entscheidend, dass Fairness priorisiert wird, um sicherzustellen, dass diese zusätzlichen Daten tatsächlich denen zugutekommen, denen sie helfen sollen, indem der Zugang zu Krediten erweitert wird.
Privatsphäre
Die entscheidende Bedeutung der Privatsphäre bei der Verwendung von KI ist bereits im Gesundheitswesen offensichtlich. Im Jahr 2016 entstand eine Kontroverse, als das in London ansässige KI-Unternehmen DeepMind mit dem NHS (National Health Service, UK) zusammenarbeitete und Bedenken hinsichtlich des Umgangs mit sensiblen Patientendaten aufkamen. Die anschließende Verlagerung des Gesundheitssektors von DeepMind zu seinem Mutterunternehmen, Google, sorgte für noch mehr Besorgnis. Es ist klar, dass die Verknüpfung von Patientendaten mit Google-Konten nicht akzeptabel ist. Allerdings muss ein geeignetes Gleichgewicht zwischen dem Schutz der individuellen Privatsphäre und der Förderung gesellschaftlicher Vorteile durch KI-Anwendungen wie die Auswertung von Scans oder die Planung von Strahlentherapie gefunden werden. Der eigentliche Wert liegt in anonymisierten kollektiven Daten anstelle von persönlichen Daten, daher sollte ein Kompromiss machbar sein.
Robustheit
Die Bedeutung der Robustheit in einem KI-System zeigt sich im Bereich der Personalbeschaffung. KI kann den Einstellungsprozess erheblich verbessern, einen Großteil der Spekulation bei der Identifizierung von Talenten beseitigen und Voreingenommenheit eliminieren, die häufig die menschliche Entscheidungsfindung beeinflusst. Selbst der Technologieriese Amazon stieß jedoch auf Probleme, als festgestellt wurde, dass sein neues Einstellungssystem gegenüber Frauen voreingenommen war. Das System wurde mit über ein Jahrzehnt eingereichten Lebensläufen trainiert, die größtenteils von Männern stammten und die dominierende Rolle der Männer in der Technologiebranche widerspiegelten. Folglich neigte das System dazu, männliche Kandidaten zu bevorzugen. KI-Systeme sind nicht von Natur aus robust – um ihre Vorteile zu maximieren, müssen sie in realen Umgebungen effektiv arbeiten.
Erklärbarkeit
Das Microsoft-Experiment zum "konversationellen Verständnis" über einen Twitter-Bot namens Tay verdeutlicht, warum die vierte Säule der KI-Ethik, Erklärbarkeit, notwendig ist. Es dauerte weniger als einen Tag, bis der naive KI-Chatbot auf Twitter beeinträchtigt wurde. Der Bot sollte sich durch die Interaktion mit Benutzern verbessern und lernen, sich in zwangslosen und spielerischen Gesprächen zu engagieren. Leider wurde der Dialog bald beleidigend, wobei der Bot misogyne und rassistische Kommentare wiedergab. Eine Erklärung für die Entscheidungsfindung einer KI zu liefern, ist herausfordernd, ähnlich wie die Erklärung menschlicher Intelligenz, aber es ist entscheidend, das volle Potenzial zu nutzen, das KI bietet.
%20Blog%20cont%20(4).png?width=730&height=548&name=Speed%20translation%20of%20lots%20of%20content%20that%20will%20be%20client-facing%20Instruction%20manuals%20Knowledge%20Bases%20%20Knowledge%20Centers%20FAQs%20Web%20Product%20descriptions%20Some%20SEO%20content%20(alt%20text%20in%20images)%20Blog%20cont%20(4).png)
Was unternimmt Pangeanic, um Ethical AI in seine Prozessen zu integrieren?
Wir sind der Überzeugung, dass faire, verantwortungsbewusste und transparente Systeme nicht auf billiger Arbeitskraft aufgebaut werden können. Pangeanic wendet eine Politik fairer Bezahlung gegenüber seinen Lieferanten, Vertragspartnern und Mitarbeitern an. Wir rekrutieren Fachkräfte, da sich dies auf den Service sowie die Qualität der Produkte und Dienstleistungen auswirkt, die unsere Kunden erhalten.
-
Unsere Prozesse stehen unseren Kunden offen, und wir erläutern ihnen die Verwendung von KI in ihren Anwendungen (maschinelle Übersetzung, Klassifizierung, Daten für maschinelles Lernen, Datenkuratierung usw.). Durch das Verständnis von Daten und Prozessen können wir erklären, wie und warum die Technologie von Pangeanic funktioniert und wie Entscheidungen oder Ergebnisse durch KI zustande kommen.
-
Unsere Systeme vermeiden Voreingenommenheit von der Konzeption bis zur Anwendung. Unser Forschungspersonal hat in der F&E an voreingenommenen Veröffentlichungen gearbeitet, um Hate Speech sowie Geschlechts- oder ethnische Voreingenommenheit zu erkennen und zu eliminieren. Wir arbeiten stetig mit unseren Kunden zusammen, um geschlechtsspezifisch ausgewogene Datensätze zu erstellen oder um Datensätze zu erstellen, die beispielsweise frei von Toxizität sind.
-
Wir entwickeln, verbessern, passen an und implementieren Anonymisierungswerkzeuge, um die Privatsphäre von Personen zu respektieren, und das in 26 Sprachen. Pangeanic leitet das von der EU unterstützte MAPA-Projekt und ist nun ein zentraler Bestandteil mehrerer Anonymisierungsinfrastrukturen.
-
Pangeanic erklärt sich für alle seine Dienstleistungen und Produkte in seiner KI- und Daten-für-KI-Reise mit Leistungsgarantien verantwortlich.
Ein sehr gutes Beispiel ist die Beteiligung unseres CEOs am Translating Europe Workshop (TEW) GDPR Report, der Übersetzungsprofis dabei unterstützt, die DSGVO zu verstehen und optimal umzusetzen.
Nach mehreren Monaten der Zusammenarbeit zwischen Vertretern von Übersetzerverbänden, Sprachdienstleistern, Akademie- und Rechtsexperten erstellte die Gruppe einen Empfehlungsbericht, der auf dem Translating Europe Workshop im Jahr 2022 präsentiert wurde.
In den Worten von Melina Skondra: „Finanziert von der Generaldirektion Übersetzung der Europäischen Kommission ist der Translating Europe Workshop der erste Schritt in Richtung gemeinsamer europäischer DSGVO-Richtlinien für den Übersetzungs- und Dolmetscherberuf. Er umfasst die Arbeit eines Gremiums von Rechts- und Fachexperten aus dem Übersetzungs- und Dolmetschersektor, einen ganztägigen Online-Workshop mit Fachleuten aus diesem Bereich sowie diesen Zusammenfassungsbericht.
Der TEW-GDPR-Bericht skizziert die Hauptprobleme bei der Umsetzung und Einhaltung der DSGVO im Übersetzungs- und Dolmetscherbereich, die von einem paneuropäischen Expertengremium untersucht und analysiert wurden.
Herzlichen Glückwunsch an das großartige Team: Stefanie Bogaerts, John Anthony O'Shea LL.B, LL.M, Raisa McNab, Wojciech Woloszyk (Wołoszyk), Małgorzata Dumkiewicz, Paweł Kamocki, Zoe Milak, Manuel Herranz.
Ist Ethical AI die Zukunft?
Basierend auf den Grundrechten und ethischen Prinzipien hat die Europäische Kommission an einem Satz von Ethikrichtlinien für vertrauenswürdige künstliche Intelligenz (KI) gearbeitet. Um Vertrauen in eine auf den Menschen ausgerichtete KI aufzubauen, erstellte dieses politische Gremium zusammen mit einer Hochrangigen Expertengruppe für künstliche Intelligenz (AI HLEG) ein Dokument. Diese unabhängige Expertengruppe wurde im Juni 2018 von der Europäischen Kommission im Rahmen der zuvor im selben Jahr angekündigten KI-Strategie ins Leben gerufen.
Die Richtlinien nennen sieben Schlüsselanforderungen, die KI-Systeme erfüllen sollten, um vertrauenswürdig zu sein:
Um diese Anforderungen in die Praxis umzusetzen, wird in den Richtlinien eine Evaluierungscheckliste eingeführt, die Ratschläge zur praktischen Anwendung jeder Anforderung enthält. Diese Evaluierungscheckliste wird einer Testphase unterzogen, an der alle interessierten Stakeholder teilnehmen können, um Feedback zur Verbesserung der Effektivität der Checkliste zu sammeln. Darüber hinaus wurde ein Forum eingerichtet, um den Austausch bewährter Praktiken für die Implementierung von vertrauenswürdiger KI zu erleichtern.

