PangeaMT Masker
PangeaMT Masker
Featured Image

6 minute gelesen

17/07/2023

Die 4 Säulen der Ethical AI – und warum sie für das maschinelle Lernen wichtig sind

Die enge Zusammenarbeit mit unseren Kunden beim Aufbau ethischer KI-Systeme durchdringt die Kultur von Pangeanic und prägt alles, was wir tun. Doch wir beschränken uns nicht darauf, nur darüber zu sprechen, sondern setzen unsere Worte auch in die Tat um. Zu diesem Zweck möchten wir unsere bewussten Bemühungen in der Datensammlung, Datenaggregation und Datenannotation, dem Aufbau von Parallelkorpora für ML-Systeme, die vollständig den 4 Säulen der Ethical AI entsprechen, öffentlich machen. Gemeinsam mit leistungsstarken multilingualen Datenmaskierungs- und Anonymisierungstechnologien erstellen wir Datensätze und entwickeln Lösungen, die auf soliden ethischen KI-Prinzipien basieren.

 

Was ist Ethical AI? 

Ethical AI ist ein freiwilliges, weltweites Konzept, das sich auf die Gestaltung, Entwicklung, Einführung und Bereitstellung von KI-Systemen bezieht, die die Menschenrechte und gemeinsame moralische Werte respektieren. Es konzentriert sich darauf, KI-Systeme zu schaffen, die transparent, fair, verantwortungsbewusst sind und die Privatsphäre respektieren. Die 4 Säulen der Ethical AI sind:  

  1. Transparenz: Die Prozesse und Entscheidungen, die von KI-Systemen getroffen werden, sollten klar, verständlich und erklärbar sein. Dies hilft Benutzern, zu verstehen, wie eine bestimmte Entscheidung oder Ausgabe durch die KI zustande kommt.

  2. Fairness: KI-Systeme müssen Voreingenommenheiten vermeiden, die zu unfairen Ergebnissen führen oder diskriminierend sein können. KI sollte jeden gleich behandeln und Entscheidungen auf sachlichen Daten anstelle von subjektiven Vorurteilen treffen.

  3. Privatsphäre und Sicherheit: KI-Systeme sollten die Privatsphäre der Benutzer respektieren. Das bedeutet, dass sie keine persönlichen Daten ohne die Zustimmung des Benutzers sammeln oder verwenden sollten. Der Schutz der Privatsphäre und Daten von Einzelpersonen steht im Mittelpunkt von Ethical AI. Dies umfasst die Verwendung geeigneter Techniken zur Datenanonymisierung, die Gewährleistung der Datensicherheit und die Einhaltung aller relevanten Datenschutzgesetze und -vorschriften.

  4. Verantwortlichkeit: Es sollte eine Möglichkeit geben, diejenigen, die für die Entwicklung und Nutzung von KI-Systemen verantwortlich sind, für ihre Handlungen zur Rechenschaft zu ziehen.

     

Warum ist Ethical AI relevant?  

Die Fortschritte in der künstlichen Intelligenz (KI) beginnen, die Art und Weise, wie wir Menschen nicht nur mit Maschinen interagieren, sondern auch, wie wir mit anderen Menschen in Kontakt treten, Informationen verarbeiten und folglich Entscheidungen treffen, tiefgreifend zu beeinflussen. KI kann die Bereitstellung vieler Güter und Dienstleistungen verbessern, auch in Bereichen des Gesundheitswesen, der Finanzdienstleistungen und Technologie. Gleichzeitig besteht jedoch die Gefahr, dass sie zur Voreingenommenheit gegenüber einem bestimmten Ziel oder einer Bevölkerungsgruppe führt, diese vollständig ignoriert oder sogar Fake News erzeugt. Und das ist erst der Anfang.

Mit zunehmender Größe von Big Data und der Ausweitung der Rechenleistung, wenn mehr Daten für mehr Teams verfügbar werden und das Fine-Tuning großer Sprachmodelle und anderer KI-Systeme erschwinglicher wird, erkennen wir, dass die Technologie kurz davor steht, nahezu jeden Aspekt unseres bekannten Daseins zu revolutionieren.  

Dieser große Fortschritt ist eine faszinierende Aussicht, die die Möglichkeit bietet, einige unserer größten Herausforderungen für das Wohl der Menschheit anzugehen. Gleichzeitig jedoch wirft er viele berechtigte Bedenken auf. Wie bei jeder neuartigen und sich schnell entwickelnden Technologie wird die universelle Integration von KI eine steile Lernkurve und sehr schnelles Nutzertraining erfordern. Unvermeidliche Fehltritte und Fehleinschätzungen können auftreten und möglicherweise zu unvorhergesehenen und manchmal auch nachteiligen Auswirkungen führen.  

Um die Vorteile zu optimieren und den Schaden zu begrenzen, spielt die KI-Ethik eine entscheidende Rolle, um sicherzustellen, dass die gesellschaftlichen und ethischen Auswirkungen des Aufbaus und der Bereitstellung von KI-Systemen in jeder Phase berücksichtigt werden. Die KI-Ethik stützt sich auf die vier grundlegenden Säulen der Ethical AI, und um unsere Botschaft zu unterstreichen, müssen Systeme fair, privat, robust und erklärbar sein. 

Bisher bekannte Probleme  

Wir befinden uns erst in der Anfangsphase der Entwicklung von KI-Systemen, aber wir alle kennen einige Grenzfälle, die gerade wegen der fehlenden ethischen Kontrolle in die Schlagzeilen geraten sind. Hier sind einige Beispiele dafür, wie gegen die einzelnen Säulen verstoßen wurde: 

Fairness 

Die Verwendung von KI zur Minderung von Voreingenommenheit in Kreditbewertungen verdeutlicht, warum Fairness ein wesentlicher Faktor bei der Gestaltung von KI-Systemen ist. Obwohl Kreditbewertungen oft als unvoreingenommen und objektiv betrachtet werden, haben sie eine lange Geschichte der Diskriminierung, beispielsweise aufgrund von Rasse oder Geschlecht. KI-gesteuerte Kreditbewertungsmodelle bieten eine detailliertere Dateninterpretation und können versteckte Korrelationen zwischen Variablen aufzeigen, die in einem herkömmlichen Kreditbewertungsmodell möglicherweise nicht relevant erscheinen oder sogar enthalten sind – wie politische Neigungen oder Verbindungen in den sozialen Medien. Die Integration solcher unkonventioneller Informationen in Kreditbewertungen birgt jedoch das Risiko, bestehende Voreingenommenheit zu verschärfen. Es ist entscheidend, dass Fairness priorisiert wird, um sicherzustellen, dass diese zusätzlichen Daten tatsächlich denen zugutekommen, denen sie helfen sollen, indem der Zugang zu Krediten erweitert wird.  

Privatsphäre

Die entscheidende Bedeutung von Privatsphäre bei der Verwendung von KI ist bereits im Gesundheitswesen offensichtlich. Im Jahr 2016 entstand eine Kontroverse, als das in London ansässige KI-Unternehmen DeepMind mit dem NHS (National Health Service, UK) zusammenarbeitete und Bedenken hinsichtlich des Umgangs mit sensiblen Patientendaten aufkamen. Die anschließende Verlagerung des Gesundheitssektors von DeepMind zu seinem Mutterunternehmen Google sorgte für noch mehr Besorgnis. Es ist klar, dass die Verknüpfung von Patientendaten mit Google-Konten nicht akzeptabel ist. Allerdings muss ein geeignetes Gleichgewicht zwischen dem Schutz der individuellen Privatsphäre und der Förderung gesellschaftlicher Vorteile durch KI-Anwendungen wie der Auswertung von Scans oder der Planung von Strahlentherapie gefunden werden. Der eigentliche Wert liegt in anonymisierten kollektiven Daten anstelle von persönlichen Daten, daher sollte ein Kompromiss machbar sein.  

Robustheit 

Die Bedeutung der Robustheit in einem KI-System zeigt sich im Bereich der Personalbeschaffung. KI kann den Einstellungsprozess erheblich verbessern, einen Großteil der Spekulation bei der Identifizierung von Talenten beseitigen und Voreingenommenheit eliminieren, die häufig menschliche Entscheidungsfindung beeinflusst. Selbst der Technologieriese Amazon stieß jedoch auf Probleme, als festgestellt wurde, dass sein neues Einstellungssystem gegenüber Frauen voreingenommen war. Das System wurde mit über ein Jahrzehnt lang eingereichten Lebensläufen trainiert, die größtenteils von Männern stammten und die dominierende Rolle von Männern in der Technologiebranche widerspiegelten. Folglich neigte das System dazu, männliche Kandidaten zu bevorzugen. KI-Systeme sind nicht von Natur aus robust – um ihre Vorteile zu maximieren, müssen sie in realen Umgebungen effektiv arbeiten.  

Erklärbarkeit  

Das Experiment von Microsoft zum "konversationellen Verständnis" über einen Twitter-Bot namens Tay verdeutlicht, warum die vierte Säule der KI-Ethik, Erklärbarkeit, notwendig ist. Es dauerte weniger als einen Tag, um den naiven KI-Chatbot auf Twitter zu beeinträchtigen. Der Bot sollte sich durch die Interaktion mit Benutzern verbessern und lernen, sich in zwanglosen und spielerischen Gesprächen zu engagieren. Leider wurde der Dialog bald beleidigend, wobei der Bot misogyne und rassistische Kommentare wiedergab. Eine Erklärung für die Entscheidungsfindung einer KI zu liefern, ist herausfordernd, ähnlich wie die Erklärung menschlicher Intelligenz, aber es ist entscheidend, das volle Potenzial zu nutzen, das KI zu bieten hat.  

Speed translation of lots of content that will be client-facing Instruction manuals Knowledge Bases  Knowledge Centers FAQs Web Product descriptions Some SEO content (alt text in images) Blog cont (4)

Was unternimmt Pangeanic, um Ethical AI in seine Prozessen zu integrieren?  

Wir sind der Überzeugung, dass faire, verantwortungsbewusste und transparente Systeme nicht auf billiger Arbeitskraft aufgebaut werden können. Pangeanic wendet eine Politik fairer Bezahlung auf seine Lieferanten, Vertragspartner und Mitarbeiter an. Wir rekrutieren Fachkräfte, da sich dies auf den Service sowie die Qualität der Produkte und Dienstleistungen auswirkt, die unsere Kunden erhalten. 

  • Unsere Prozesse stehen unseren Kunden offen und wir erläutern ihnen die Verwendung von KI für ihre Anwendungen (maschinelle Übersetzung, Klassifizierung, Daten für maschinelles Lernen, Datenkuratierung usw.). Durch das Verständnis der Daten und Prozesse können wir erklären, wie und warum die Technologie von Pangeanic funktioniert und wie Entscheidungen oder Ergebnisse durch KI zustande kommen.  

  • Unsere Systeme vermeiden Voreingenommenheit von der Konzeption bis zur Anwendung. Unser Forschungspersonal hat in der F&E zu voreingenommenen Veröffentlichungen gearbeitet, um Hate Speech und Geschlechts- oder ethnische Voreingenommenheit zu erkennen und zu eliminieren. Wir arbeiten stetig mit unseren Kunden zusammen, um geschlechtsspezifisch ausgewogene Datensätze zu erstellen oder um Datensätze zu erstellen, die beispielsweise frei von Toxizität sind.  

  • Wir entwickeln, verbessern, passen an und implementieren Anonymisierungswerkzeuge, um die Privatsphäre von Personen zu respektieren, und das in 26 Sprachen. Pangeanic leitet das MAPA-Projekt, das von der EU unterstützt wird, und ist nun ein zentraler Bestandteil mehrerer Anonymisierungsinfrastrukturen. 

  • Pangeanic erklärt sich für alle seine Dienstleistungen und Produkte in seiner KI- und Daten-für-KI-Reise verantwortlich, mit Leistungsgarantien.  

Ein sehr gutes Beispiel ist die Beteiligung unseres CEOs am Translating Europe Workshop (TEW) GDPR Report, der Übersetzungsprofis dabei unterstützt, die DSGVO zu verstehen und optimal umzusetzen.   

Nach mehreren Monaten der Zusammenarbeit zwischen Vertretern von Übersetzerverbänden, Sprachdienstleistern, Akademie- und Rechtsexperten erstellte die Gruppe einen Empfehlungsbericht, der auf dem Translating Europe Workshop im Jahr 2022 präsentiert wurde.  

In den Worten von Melina Skondra: „Finanziert von der Generaldirektion Übersetzung der Europäischen Kommission ist der Translating Europe Workshop der erste Schritt in Richtung gemeinsamer europäischer DSGVO-Richtlinien für den Übersetzungs- und Dolmetscherberuf“. Er umfasst die Arbeit eines Gremiums von Rechts- und Fachexperten aus dem Übersetzungs- und Dolmetschersektor, einen ganztägigen Online-Workshop mit Fachleuten aus diesem Bereich sowie diesen Zusammenfassungsbericht. 
 
Der TEW GDPR-Bericht skizziert die Hauptprobleme bei der Umsetzung und Einhaltung der DSGVO im Übersetzungs- und Dolmetscherbereich, die von einem paneuropäischen Expertengremium erkundet und analysiert wurden.  


Herzlichen Glückwunsch an das großartige Team: Stefanie Bogaerts, John Anthony O'Shea LL.B, LL.M, Raisa McNab, Wojciech Woloszyk (Wołoszyk), Małgorzata Dumkiewicz, Paweł Kamocki, Zoe Milak, Manuel Herranz.

Ist Ethical AI die Zukunft?  

Basierend auf den Grundrechten und ethischen Prinzipien hat die Europäische Kommission an einem Satz von Ethikrichtlinien für vertrauenswürdige künstliche Intelligenz (KI) gearbeitet. Um Vertrauen in eine auf den Menschen ausgerichtete KI aufzubauen, erstellte dieses politische Gremium zusammen mit einer Hochrangigen Expertengruppe für künstliche Intelligenz (AI HLEG) ein Dokument. Diese unabhängige Expertengruppe wurde im Juni 2018 von der Europäischen Kommission im Rahmen der zuvor im selben Jahr angekündigten KI-Strategie ins Leben gerufen.

Die Richtlinien nennen sieben Schlüsselanforderungen, die KI-Systeme erfüllen sollten, um vertrauenswürdig zu sein:

  1. Menschliches Handeln und Überwachung

  2. Technische Robustheit und Sicherheit

  3. Schutz der Privatsphäre und Datenverwaltung

  4. Transparenz

  5. Vielfalt, Nichtdiskriminierung und Fairness

  6. Gesellschaftliches und Umweltwohl

  7. Verantwortlichkeit  

Um diese Anforderungen in die Praxis umzusetzen, wird in den Richtlinien eine Evaluierungscheckliste eingeführt, die Ratschläge zur praktischen Anwendung jeder Anforderung bietet. Diese Evaluierungscheckliste wird einer Testphase unterzogen, an der alle interessierten Stake Holder teilnehmen können, um Feedback zur Verbesserung ihrer Effektivität zu sammeln. Darüber hinaus wurde ein Forum eingerichtet, um den Austausch bewährter Praktiken für die Implementierung von vertrauenswürdiger KI zu erleichtern.