Sécurité et éthique dans l'IA - L'approche de Meltwater

Publié: 2023-08-16

L'IA transforme notre monde en nous offrant de nouvelles fonctionnalités incroyables telles que la création de contenu et l'analyse de données automatisées, ainsi que des assistants d'IA personnalisés. Bien que cette technologie offre des opportunités sans précédent, elle pose également des problèmes de sécurité importants qui doivent être résolus pour garantir son utilisation fiable et équitable.

Chez Meltwater, nous pensons que comprendre et relever ces défis de sécurité liés à l'IA est crucial pour l'avancement responsable de cette technologie transformatrice.

Les principales préoccupations concernant la sécurité de l'IA tournent autour de la manière dont nous rendons ces systèmes fiables, éthiques et bénéfiques pour tous. Cela découle de la possibilité que les systèmes d'IA causent des dommages involontaires, prennent des décisions qui ne sont pas alignées sur les valeurs humaines, soient utilisés de manière malveillante ou deviennent si puissants qu'ils deviennent incontrôlables.

Table des matières

  • Robustesse

  • Alignement

  • Parti pris et équité

  • Interprétabilité

  • Dérive

  • La voie à suivre pour la sécurité de l'IA


Robustesse

La robustesse de l'IA fait référence à sa capacité à bien fonctionner de manière constante, même dans des conditions changeantes ou inattendues.

Si un modèle d'IA n'est pas robuste, il peut facilement échouer ou fournir des résultats inexacts lorsqu'il est exposé à de nouvelles données ou scénarios en dehors des échantillons sur lesquels il a été formé. Un aspect essentiel de la sécurité de l'IA consiste donc à créer des modèles robustes capables de maintenir des niveaux de performance élevés dans diverses conditions.

Chez Meltwater, nous abordons la robustesse de l'IA à la fois au stade de la formation et de l'inférence. Plusieurs techniques telles que la formation contradictoire, la quantification de l'incertitude et l'apprentissage fédéré sont utilisées pour améliorer la résilience des systèmes d'IA dans des situations incertaines ou conflictuelles.

Alignement

Dans ce contexte, « l'alignement » fait référence au processus visant à garantir que les objectifs et les décisions des systèmes d'IA sont en phase avec les valeurs humaines, un concept connu sous le nom d'alignement des valeurs.

Une IA mal alignée pourrait prendre des décisions que les humains trouvent indésirables ou nuisibles, bien qu'elles soient optimales selon les paramètres d'apprentissage du système. Pour parvenir à une IA sûre, les chercheurs travaillent sur des systèmes qui comprennent et respectent les valeurs humaines tout au long de leurs processus décisionnels, même lorsqu'ils apprennent et évoluent.

La construction de systèmes d'IA alignés sur les valeurs nécessite une interaction et une rétroaction continues de la part des humains. Meltwater utilise largement les techniques Human In The Loop (HITL), incorporant des commentaires humains à différentes étapes de nos flux de travail de développement d'IA, y compris la surveillance en ligne des performances des modèles.

Des techniques telles que l'apprentissage par renforcement inverse, l'apprentissage par renforcement inverse coopératif et les jeux d'assistance sont adoptées pour apprendre et respecter les valeurs et les préférences humaines. Nous tirons également parti de la théorie de l'agrégation et du choix social pour gérer les valeurs conflictuelles entre différents humains.

Parti pris et équité

Un problème critique avec l'IA est son potentiel à amplifier les préjugés existants, conduisant à des résultats injustes.

Le biais dans l'IA peut résulter de divers facteurs, y compris (mais sans s'y limiter) les données utilisées pour former les systèmes, la conception des algorithmes ou le contexte dans lequel ils sont appliqués. Si un système d'IA est formé sur des données historiques contenant des décisions biaisées, le système pourrait perpétuer ces biais par inadvertance.

Un exemple est l'IA de sélection d'emploi qui peut favoriser injustement un sexe particulier parce qu'elle a été formée sur des décisions d'embauche antérieures qui étaient biaisées. Aborder l'équité signifie faire des efforts délibérés pour minimiser les préjugés dans l'IA, garantissant ainsi qu'elle traite tous les individus et tous les groupes de manière équitable.

Meltwater effectue une analyse des biais sur tous nos ensembles de données de formation, à la fois internes et open source, et invite de manière contradictoire tous les grands modèles linguistiques (LLM) à identifier les biais. Nous utilisons largement les tests comportementaux pour identifier les problèmes systémiques dans nos modèles de sentiment, et nous appliquons les paramètres de modération de contenu les plus stricts sur tous les LLM utilisés par nos assistants IA. Plusieurs définitions d'équité statistique et informatique, y compris (mais sans s'y limiter) la parité démographique, l'égalité des chances et l'équité individuelle, sont utilisées pour minimiser l'impact du biais de l'IA dans nos produits.

Interprétabilité

La transparence de l'IA, souvent appelée interprétabilité ou explicabilité, est une considération de sécurité cruciale. Cela implique la capacité de comprendre et d'expliquer comment les systèmes d'IA prennent des décisions.

Sans interprétabilité, les recommandations d'un système d'IA peuvent ressembler à une boîte noire, ce qui rend difficile la détection, le diagnostic et la correction des erreurs ou des biais. Par conséquent, favoriser l'interprétabilité dans les systèmes d'IA améliore la responsabilité, améliore la confiance des utilisateurs et favorise une utilisation plus sûre de l'IA. Meltwater adopte des techniques standard, telles que LIME et SHAP, pour comprendre les comportements sous-jacents de nos systèmes d'IA et les rendre plus transparents.

Dérive

La dérive de l'IA, ou dérive du concept, fait référence à la modification des modèles de données d'entrée au fil du temps. Ce changement pourrait entraîner une baisse des performances du modèle d'IA, impactant la fiabilité et la sécurité de ses prédictions ou recommandations.

La détection et la gestion de la dérive sont essentielles pour maintenir la sécurité et la robustesse des systèmes d'IA dans un monde dynamique. Une gestion efficace de la dérive nécessite une surveillance continue des performances du système et la mise à jour du modèle si nécessaire.

Meltwater surveille les distributions des inférences faites par nos modèles d'IA en temps réel afin de détecter la dérive des modèles et les problèmes émergents de qualité des données.

La voie à suivre pour la sécurité de l'IA

La sécurité de l'IA est un défi à multiples facettes nécessitant l'effort collectif des chercheurs, des développeurs d'IA, des décideurs et de la société dans son ensemble.

En tant qu'entreprise, nous devons contribuer à créer une culture où la sécurité de l'IA est une priorité. Cela comprend l'établissement de normes de sécurité à l'échelle de l'industrie, la promotion d'une culture d'ouverture et de responsabilité, et un engagement indéfectible à utiliser l'IA pour augmenter nos capacités d'une manière alignée sur les valeurs les plus profondément ancrées de Meltwater.

Cet engagement continu s'accompagne de responsabilités, et les équipes d'IA de Meltwater ont établi un ensemble de principes éthiques d'IA de Meltwater inspirés de ceux de Google et de l'OCDE. Ces principes constituent la base de la manière dont Meltwater mène des activités de recherche et développement dans les domaines de l'intelligence artificielle, de l'apprentissage automatique et de la science des données.

  1. Profiter à la société chaque fois que des opportunités se présentent de manière inclusive et durable.
  2. Les biais et les dérives sont des défauts. Ils laissent tomber l'entreprise et nos clients.
  3. Sûreté, confidentialité et sécurité en tant que citoyens de première classe.
  4. Tracez tout et soyez responsable. La transparence est essentielle.
  5. Nous sommes des scientifiques et des ingénieurs ; tout doit être prouvé et testé.
  6. Utilisez l'open source dans la mesure du possible ; vérifier tout le reste et supposer que c'est dangereux.

Meltwater a établi des partenariats et des adhésions pour renforcer encore son engagement à favoriser des pratiques éthiques en matière d'IA.

  • Meltwater a créé un conseil consultatif scientifique (SAB), qui est une équipe de chercheurs scientifiques et de professionnels distingués qui offrent des conseils sur la stratégie d'IA de Meltwater
  • Meltwater adhère aux directives du PR Council pour l'IA générative introduites en avril 2023
  • Meltwater aide les marques à adhérer au Brand Safety Floor & Suitability Framework du WAF GARM en fournissant plusieurs modèles d'IA pour détecter les contenus nuisibles, abusifs et dangereux dans les textes, les sons, les images et les vidéos, y compris les cas d'utilisation de fausses informations via notre partenariat Newsguard.

Nous sommes extrêmement fiers du chemin parcouru par Meltwater pour fournir une IA éthique à ses clients. Nous pensons que Meltwater est sur le point de continuer à fournir des innovations révolutionnaires pour rationaliser le parcours de l'intelligence à l'avenir et nous sommes ravis de continuer à jouer un rôle de leader dans la défense responsable de nos principes de développement de l'IA, en favorisant une transparence continue, ce qui conduit à une plus grande confiance entre les clients.