Sicherheit und Ethik in der KI – Meltwaters Ansatz

Veröffentlicht: 2023-08-16

KI verändert unsere Welt und bietet uns erstaunliche neue Möglichkeiten wie die automatisierte Inhaltserstellung und Datenanalyse sowie personalisierte KI-Assistenten. Während diese Technologie beispiellose Möglichkeiten mit sich bringt, wirft sie auch erhebliche Sicherheitsbedenken auf, die angegangen werden müssen, um ihre zuverlässige und gerechte Nutzung sicherzustellen.

Wir bei Meltwater glauben, dass das Verständnis und die Bewältigung dieser KI-Sicherheitsherausforderungen für die verantwortungsvolle Weiterentwicklung dieser transformativen Technologie von entscheidender Bedeutung sind.

Die Hauptsorgen für die KI-Sicherheit drehen sich darum, wie wir diese Systeme zuverlässig, ethisch und für alle nützlich machen. Dies ergibt sich aus der Möglichkeit, dass KI-Systeme unbeabsichtigten Schaden anrichten, Entscheidungen treffen, die nicht im Einklang mit menschlichen Werten stehen, böswillig eingesetzt werden oder so mächtig werden, dass sie unkontrollierbar werden.

Inhaltsverzeichnis

  • Robustheit

  • Ausrichtung

  • Voreingenommenheit und Fairness

  • Interpretierbarkeit

  • Drift

  • Der Weg in die Zukunft für KI-Sicherheit


Robustheit

Unter KI-Robustheit versteht man die Fähigkeit, auch unter sich ändernden oder unerwarteten Bedingungen konstant gute Leistungen zu erbringen.

Wenn ein KI-Modell nicht robust ist, kann es leicht ausfallen oder ungenaue Ergebnisse liefern, wenn es neuen Daten oder Szenarien außerhalb der Proben ausgesetzt wird, an denen es trainiert wurde. Ein zentraler Aspekt der KI-Sicherheit ist daher die Erstellung robuster Modelle, die unter verschiedenen Bedingungen ein hohes Leistungsniveau aufrechterhalten können.

Bei Meltwater beschäftigen wir uns mit der Robustheit der KI sowohl in der Trainings- als auch in der Inferenzphase. Mehrere Techniken wie gegnerisches Training, Unsicherheitsquantifizierung und föderiertes Lernen werden eingesetzt, um die Widerstandsfähigkeit von KI-Systemen in unsicheren oder gegnerischen Situationen zu verbessern.

Ausrichtung

In diesem Zusammenhang bezieht sich „Ausrichtung“ auf den Prozess, bei dem sichergestellt wird, dass die Ziele und Entscheidungen von KI-Systemen mit menschlichen Werten im Einklang stehen, ein Konzept, das als Werteausrichtung bekannt ist.

Eine falsch ausgerichtete KI könnte Entscheidungen treffen, die Menschen als unerwünscht oder schädlich empfinden, obwohl sie gemäß den Lernparametern des Systems optimal sind. Um eine sichere KI zu erreichen, arbeiten Forscher an Systemen, die menschliche Werte in ihren Entscheidungsprozessen verstehen und respektieren, auch während sie lernen und sich weiterentwickeln.

Der Aufbau werteorientierter KI-Systeme erfordert kontinuierliche Interaktion und Feedback von Menschen. Meltwater nutzt in großem Umfang HITL-Techniken (Human In The Loop) und bezieht menschliches Feedback in verschiedenen Phasen unserer KI-Entwicklungsabläufe ein, einschließlich der Online-Überwachung der Modellleistung.

Techniken wie inverses Verstärkungslernen, kooperatives inverses Verstärkungslernen und Assistenzspiele werden eingesetzt, um menschliche Werte und Vorlieben zu lernen und zu respektieren. Wir nutzen auch die Aggregations- und Social-Choice-Theorie, um mit widersprüchlichen Werten zwischen verschiedenen Menschen umzugehen.

Voreingenommenheit und Fairness

Ein kritisches Problem bei KI ist ihr Potenzial, bestehende Vorurteile zu verstärken und zu unfairen Ergebnissen zu führen.

Eine Verzerrung in der KI kann aus verschiedenen Faktoren resultieren, einschließlich (aber nicht beschränkt auf) den Daten, die zum Trainieren der Systeme verwendet werden, dem Design der Algorithmen oder dem Kontext, in dem sie angewendet werden. Wenn ein KI-System auf historischen Daten trainiert wird, die verzerrte Entscheidungen enthalten, könnte das System diese Verzerrungen unbeabsichtigt aufrechterhalten.

Ein Beispiel ist die KI zur Jobauswahl, die möglicherweise ein bestimmtes Geschlecht zu Unrecht bevorzugt, weil sie auf voreingenommenen Einstellungsentscheidungen in der Vergangenheit trainiert wurde. Fairness anzugehen bedeutet, bewusste Anstrengungen zu unternehmen, um Voreingenommenheit in der KI zu minimieren und so sicherzustellen, dass alle Einzelpersonen und Gruppen gleich behandelt werden.

Meltwater führt eine Bias-Analyse für alle unsere Trainingsdatensätze durch, sowohl intern als auch als Open Source, und fordert alle Large Language Models (LLMs) kontradiktorisch auf, Bias zu identifizieren. Wir nutzen in großem Umfang Verhaltenstests, um systemische Probleme in unseren Stimmungsmodellen zu identifizieren, und wir erzwingen die strengsten Einstellungen für die Inhaltsmoderation bei allen LLMs, die von unseren KI-Assistenten verwendet werden. Mehrere statistische und rechnerische Fairnessdefinitionen, einschließlich (aber nicht beschränkt auf) demografische Parität, Chancengleichheit und individuelle Fairness, werden genutzt, um die Auswirkungen von KI-Voreingenommenheit in unseren Produkten zu minimieren.

Interpretierbarkeit

Transparenz in der KI, oft auch als Interpretierbarkeit oder Erklärbarkeit bezeichnet, ist ein entscheidender Sicherheitsaspekt. Dabei geht es um die Fähigkeit zu verstehen und zu erklären, wie KI-Systeme Entscheidungen treffen.

Ohne Interpretierbarkeit können die Empfehlungen eines KI-Systems wie eine Blackbox wirken, was es schwierig macht, Fehler oder Verzerrungen zu erkennen, zu diagnostizieren und zu korrigieren. Folglich erhöht die Förderung der Interpretierbarkeit in KI-Systemen die Verantwortlichkeit, stärkt das Vertrauen der Benutzer und fördert eine sicherere Nutzung von KI. Meltwater nutzt Standardtechniken wie LIME und SHAP, um das zugrunde liegende Verhalten unserer KI-Systeme zu verstehen und sie transparenter zu machen.

Drift

KI-Drift oder Konzeptdrift bezieht sich auf die Änderung der Eingabedatenmuster im Laufe der Zeit. Diese Änderung könnte zu einer Verschlechterung der Leistung des KI-Modells führen und sich auf die Zuverlässigkeit und Sicherheit seiner Vorhersagen oder Empfehlungen auswirken.

Die Erkennung und Bewältigung von Abweichungen ist entscheidend für die Aufrechterhaltung der Sicherheit und Robustheit von KI-Systemen in einer dynamischen Welt. Eine effektive Handhabung der Drift erfordert eine kontinuierliche Überwachung der Systemleistung und die Aktualisierung des Modells bei Bedarf.

Meltwater überwacht die Verteilung der Schlussfolgerungen unserer KI-Modelle in Echtzeit, um Modellabweichungen und aufkommende Datenqualitätsprobleme zu erkennen.

Der Weg in die Zukunft für KI-Sicherheit

KI-Sicherheit ist eine vielschichtige Herausforderung, die die gemeinsame Anstrengung von Forschern, KI-Entwicklern, politischen Entscheidungsträgern und der Gesellschaft insgesamt erfordert.

Als Unternehmen müssen wir dazu beitragen, eine Kultur zu schaffen, in der die KI-Sicherheit Priorität hat. Dazu gehört die Festlegung branchenweiter Sicherheitsnormen, die Förderung einer Kultur der Offenheit und Verantwortlichkeit sowie ein unerschütterliches Engagement für den Einsatz von KI, um unsere Fähigkeiten in einer Weise zu erweitern, die mit den tiefsten Werten von Meltwater im Einklang steht.

Mit diesem kontinuierlichen Engagement geht Verantwortung einher, und die KI-Teams von Meltwater haben eine Reihe ethischer KI-Grundsätze von Meltwater aufgestellt, die von denen von Google und der OECD inspiriert sind. Diese Prinzipien bilden die Grundlage dafür, wie Meltwater Forschung und Entwicklung in den Bereichen künstliche Intelligenz, maschinelles Lernen und Datenwissenschaft durchführt.

  1. Nutzen Sie die Gesellschaft, wann immer sich Chancen ergeben, auf integrative und nachhaltige Weise.
  2. Bias und Drifts sind Mängel. Sie lassen das Geschäft und unsere Kunden im Stich.
  3. Sicherheit, Privatsphäre und Schutz als erstklassige Bürger.
  4. Verfolgen Sie alles und übernehmen Sie Verantwortung. Transparenz ist der Schlüssel.
  5. Wir sind Wissenschaftler und Ingenieure; Alles muss bewiesen und getestet sein.
  6. Verwenden Sie nach Möglichkeit Open Source. Überprüfen Sie alles andere und gehen Sie davon aus, dass es unsicher ist.

Meltwater hat Partnerschaften und Mitgliedschaften gegründet, um sein Engagement für die Förderung ethischer KI-Praktiken weiter zu stärken.

  • Meltwater hat ein Scientific Advisory Board (SAB) eingerichtet, ein Team aus angesehenen wissenschaftlichen Forschern und Fachleuten, das Leitlinien zur KI-Strategie von Meltwater bietet
  • Meltwater hält sich an die Leitlinien des PR Council für generative KI, die im April 2023 eingeführt wurden
  • Meltwater hilft Marken bei der Einhaltung des Brand Safety Floor & Suitability Framework des WAF GARM, indem es mehrere KI-Modelle bereitstellt, um schädliche, beleidigende und unsichere Inhalte in Texten, Audio, Bildern und Videos zu erkennen, einschließlich Anwendungsfällen für Fehlinformationen im Rahmen unserer Newsguard-Partnerschaft.

Wir sind äußerst stolz darauf, wie weit Meltwater bei der Bereitstellung ethischer KI für Kunden gekommen ist. Wir glauben, dass Meltwater bereit ist, auch in Zukunft bahnbrechende Innovationen bereitzustellen, um die Intelligence-Reise zu optimieren, und freuen uns, weiterhin eine Führungsrolle bei der verantwortungsvollen Förderung unserer Prinzipien in der KI-Entwicklung zu übernehmen und kontinuierliche Transparenz zu fördern, was zu mehr Vertrauen bei den Kunden führt.