Siguranță și etică în IA - Abordarea Meltwater

Publicat: 2023-08-16

AI ne transformă lumea, oferindu-ne noi capabilități uimitoare, cum ar fi crearea automată de conținut și analiza datelor și asistenți AI personalizați. Deși această tehnologie aduce oportunități fără precedent, ea ridică și preocupări semnificative de siguranță care trebuie abordate pentru a asigura utilizarea ei fiabilă și echitabilă.

La Meltwater, credem că înțelegerea și abordarea acestor provocări de siguranță AI este crucială pentru progresul responsabil al acestei tehnologii transformatoare.

Principalele preocupări pentru siguranța AI se învârt în jurul modului în care facem aceste sisteme fiabile, etice și benefice pentru toți. Acest lucru rezultă din posibilitatea ca sistemele AI să provoace vătămări neintenționate, să ia decizii care nu sunt aliniate cu valorile umane, să fie folosite cu răutate sau să devină atât de puternice încât să devină incontrolabile.

Cuprins

  • Robusteţe

  • Aliniere

  • Prejudecăți și corectitudine

  • Interpretabilitate

  • Derivă

  • Calea de urmat pentru siguranța AI


Robusteţe

Robustețea AI se referă la capacitatea sa de a funcționa constant în mod constant chiar și în condiții în schimbare sau neașteptate.

Dacă un model AI nu este robust, poate eșua cu ușurință sau poate oferi rezultate inexacte atunci când este expus la noi date sau scenarii în afara eșantioanelor pe care a fost instruit. Prin urmare, un aspect de bază al siguranței AI este crearea de modele robuste care pot menține niveluri de înaltă performanță în diverse condiții.

La Meltwater, abordăm robustețea AI atât în ​​faza de antrenament, cât și în etapa de inferență. Tehnici multiple precum antrenamentul advers, cuantificarea incertitudinii și învățarea federată sunt folosite pentru a îmbunătăți rezistența sistemelor AI în situații incerte sau adverse.

Aliniere

În acest context, „alinierea” se referă la procesul de a se asigura că obiectivele și deciziile sistemelor AI sunt sincronizate cu valorile umane, un concept cunoscut sub numele de aliniere a valorilor.

AI nealiniat ar putea lua decizii pe care oamenii le consideră nedorite sau dăunătoare, în ciuda faptului că sunt optime în funcție de parametrii de învățare ai sistemului. Pentru a obține o inteligență artificială sigură, cercetătorii lucrează la sisteme care înțeleg și respectă valorile umane pe parcursul proceselor lor de luare a deciziilor, chiar dacă învață și evoluează.

Construirea sistemelor AI aliniate la valori necesită interacțiune continuă și feedback din partea oamenilor. Meltwater folosește pe scară largă tehnicile Human In The Loop (HITL), încorporând feedback-ul uman în diferite etape ale fluxurilor noastre de lucru de dezvoltare AI, inclusiv monitorizarea online a performanței modelului.

Tehnici precum învățarea cu întărire inversă, învățarea cooperativă cu întărire inversă și jocurile de asistență sunt adoptate pentru a învăța și a respecta valorile și preferințele umane. De asemenea, folosim teoria agregării și alegerii sociale pentru a gestiona valorile conflictuale dintre diferiți oameni.

Prejudecăți și corectitudine

O problemă critică cu AI este potențialul său de a amplifica părtinirile existente, ceea ce duce la rezultate inechitabile.

Prejudecățile în IA pot rezulta din diverși factori, inclusiv (dar fără a se limita la) datele utilizate pentru antrenarea sistemelor, designul algoritmilor sau contextul în care sunt aplicați. Dacă un sistem AI este instruit pe date istorice care conțin decizii părtinitoare, sistemul ar putea perpetua din neatenție aceste părtiniri.

Un exemplu este AI pentru selecția locurilor de muncă, care poate favoriza în mod nedrept un anumit gen, deoarece a fost instruit pe deciziile anterioare de angajare care au fost părtinitoare. A aborda corectitudinea înseamnă a depune eforturi deliberate pentru a minimiza părtinirea în IA, asigurându-se astfel că tratează toți indivizii și grupurile în mod echitabil.

Meltwater efectuează o analiză a părtinirii tuturor seturilor noastre de date de antrenament, atât interne, cât și cu sursă deschisă, și solicită în mod advers tuturor modelelor de limbaj mari (LLM) să identifice părtinirea. Folosim pe scară largă Testarea comportamentală pentru a identifica problemele sistemice în modelele noastre de sentiment și aplicăm cele mai stricte setări de moderare a conținutului pentru toate LLM-urile utilizate de asistenții noștri AI. Mai multe definiții de corectitudine statistică și computațională, inclusiv (dar fără a se limita la) paritatea demografică, egalitatea de șanse și echitatea individuală, sunt utilizate pentru a minimiza impactul părtinirii AI în produsele noastre.

Interpretabilitate

Transparența în IA, denumită adesea interpretabilitate sau explicabilitate, este un aspect esențial de siguranță. Implica capacitatea de a înțelege și explica modul în care sistemele AI iau decizii.

Fără interpretabilitate, recomandările unui sistem AI pot părea ca o cutie neagră, ceea ce face dificilă detectarea, diagnosticarea și corectarea erorilor sau părtinirilor. În consecință, promovarea interpretării în sistemele AI sporește responsabilitatea, îmbunătățește încrederea utilizatorilor și promovează utilizarea mai sigură a AI. Meltwater adoptă tehnici standard, cum ar fi LIME și SHAP, pentru a înțelege comportamentele de bază ale sistemelor noastre AI și pentru a le face mai transparente.

Derivă

Derivarea AI, sau deriva conceptului, se referă la schimbarea tiparelor datelor de intrare în timp. Această schimbare ar putea duce la o scădere a performanței modelului AI, impactând fiabilitatea și siguranța predicțiilor sau recomandărilor acestuia.

Detectarea și gestionarea derivei este crucială pentru menținerea siguranței și robusteței sistemelor AI într-o lume dinamică. Gestionarea eficientă a drift-ului necesită monitorizarea continuă a performanței sistemului și actualizarea modelului atunci când este necesar.

Meltwater monitorizează distribuțiile inferențelor făcute de modelele noastre AI în timp real pentru a detecta deviația modelului și problemele emergente de calitate a datelor.

Calea de urmat pentru siguranța AI

Siguranța AI este o provocare cu mai multe fațete care necesită efortul colectiv al cercetătorilor, dezvoltatorilor de IA, factorilor de decizie și societății în general.

În calitate de companie, trebuie să contribuim la crearea unei culturi în care siguranța AI este prioritară. Aceasta include stabilirea de norme de siguranță la nivel de industrie, promovarea unei culturi a deschiderii și a răspunderii și un angajament ferm de a folosi AI pentru a ne spori capacitățile într-un mod aliniat cu cele mai profunde valori ale Meltwater.

Odată cu acest angajament continuu vine și responsabilitatea, iar echipele AI Meltwater au stabilit un set de principii etice AI Meltwater inspirate de cele de la Google și OCDE. Aceste principii formează baza modului în care Meltwater desfășoară cercetarea și dezvoltarea în inteligența artificială, învățarea automată și știința datelor.

  1. Beneficiați societatea ori de câte ori apar oportunități în moduri incluzive și durabile.
  2. Prejudecățile și derivele sunt defecte. Ei eșuează afacerea și clienții noștri.
  3. Siguranță, confidențialitate și securitate ca cetățeni de primă clasă.
  4. Urmăriți totul și fiți responsabil. Transparența este cheia.
  5. Suntem oameni de știință și ingineri; totul trebuie dovedit și testat.
  6. Utilizați open source ori de câte ori este posibil; verificați orice altceva și presupuneți că este nesigur.

Meltwater a stabilit parteneriate și membri pentru a-și consolida angajamentul de a promova practicile etice de IA.

  • Meltwater a înființat un Consiliu Consultativ Științific (SAB), care este o echipă de cercetători științifici distinși și profesioniști care oferă îndrumări cu privire la strategia AI a Meltwater.
  • Meltwater aderă la îndrumările Consiliului PR pentru IA generativă care a fost introdusă în aprilie 2023
  • Meltwater ajută mărcile să adere la Brand Safety Floor & Suitability Framework al WAF GARM, oferind mai multe modele AI pentru a detecta conținut dăunător, abuziv și nesigur în text, audio, imagini și videoclipuri, inclusiv cazuri de utilizare a informațiilor greșite prin parteneriatul nostru Newsguard.

Suntem extrem de mândri de cât de departe a ajuns Meltwater în furnizarea de inteligență artificială etică clienților. Credem că Meltwater este gata să continue să ofere inovații revoluționare pentru a eficientiza călătoria informațiilor în viitor și suntem încântați să continuăm să asumăm un rol de lider în susținerea responsabilă a principiilor noastre în dezvoltarea AI, promovând transparența continuă, ceea ce duce la o mai mare încredere în rândul clienților.