AIs are unele explicații de făcut

Autor: Roger Morrison
Data Creației: 28 Septembrie 2021
Data Actualizării: 11 Mai 2024
Anonim
ЗАЙЧИК КРЮЧКОМ/ ЗАйка из плюшевой пряжи крючком/ МК Часть 2
Video: ЗАЙЧИК КРЮЧКОМ/ ЗАйка из плюшевой пряжи крючком/ МК Часть 2

Conţinut


Sursa: Sdecoret / Dreamstime.com

La pachet:

Pentru a avea încredere în producția unui sistem AI, este esențial să poți înțelege procesele sale și să știi cum a ajuns la concluziile sale. AI explicabilă este cheia pentru a elimina orice prejudecată potențială.

Poți avea încredere în AI? Ar trebui să acceptați constatările sale ca valabile în mod obiectiv, fără întrebări? Problema este că nici măcar să punem la îndoială AI nu ar da răspunsuri clare.

Sistemele AI au funcționat în general ca o cutie neagră: datele sunt introduse și datele sunt emise, dar procesele care transformă datele sunt un mister. Aceasta creează o problemă dublă. Unul este că nu se știe ce performanțe ale algoritmilor sunt cele mai fiabile. Cealaltă este că rezultatele aparent obiective pot fi înclinate de valorile și prejudecățile oamenilor care programează sistemele. Acesta este motivul pentru care este nevoie de transparență pentru procesele de gândire virtuală pe care le folosesc aceste sisteme sau „AI explicabilă”.


Imperativul etic a devenit unul legal pentru oricine este supus GDPR, ceea ce afectează nu doar întreprinderile cu sediul în UE, ci și cele care au relații cu persoane sau organizații acolo. Acesta conține o serie de dispoziții privind protecția datelor care se extind asupra cetățenilor UE „dreptul de a nu fi supus exclusiv procesului decizional automatizat, cu excepția anumitor situații” și „dreptul de a fi furnizate cu informații semnificative despre logica implicată în decizie .“

Cu alte cuvinte, nu mai este suficient să spunem: „Algoritmul a respins cererea dvs.”. Există un mandat legal pentru a explica linia de gândire care a dus la concluzia care are un impact asupra vieții oamenilor. (Pentru mai multe despre avantajele și dezavantajele AI, consultați Promisiunile și capcanele învățării automate.)

Rezultate părtinitoare

Una dintre preocupările pe care unii oameni le-au ridicat cu privire la deciziile algoritmice este că, chiar dacă stau la baza raționamentelor obiective, pot consolida prejudecățile. Acesta este elementul crucial al argumentului pe care Cathy ONeil îl prezintă în „Armele distrugerii matematice: modul în care datele mari crește inegalitatea și amenință democrația. .


Ceea ce ea numește „distrugerea matematicii” este „rezultatul modelelor care consolidează barierele, menținând defavorizate populațiile demografice specifice, identificându-le drept mai puțin demne de credit, educație, oportunități de muncă, condiții de libertate, etc.”

Nu este singură în a găsi prejudecăți algoritmice. În 2016, Pro Publica și-a împărtășit concluziile conform cărora algoritmii au prezis rate mai mari de recidivă pentru negri decât albii, factor care s-a tradus în diferite pedepse cu închisoarea pentru aceleași tipuri de infracțiuni. Un articol din 2017 cu privire la gardian a extins părtinirea și la gen.

Problema este că aceste sisteme sunt programate cu consecințe de anvergură. Într-un interviu telefonic Stijn Christiaens, cofondatorul și CTO al Collibra, el a explicat că AI permite „luarea deciziilor automate”, care poate depăși peste 10 mii de decizii pe secundă.

Fără bug-uri, fără stres - Ghidul dvs. pas cu pas pentru crearea de programe care schimbă viața fără a vă distruge viața

Nu îți poți îmbunătăți abilitățile de programare atunci când nimeni nu îi pasă de calitatea software-ului.

Asta înseamnă că un sistem stabilit pe decizii proaste va face mult mai repede mult mai repede decât orice om ar putea. Dacă sistemul are o părtinire, acest număr uriaș de decizii poate fi „dăunător pentru anumite populații”, cu consecințe foarte grave și răspândite, a spus Christiaens.

Îngrijirea și hrănirea algoritmilor

Cu siguranță, există erori care rezultă din date incomplete sau slabe. Acesta a fost motivul pentru care unii experți citați în articolul Guardian menționat mai sus au dat pentru rezultatele algoritmului părtinitor. Sandra Wachter de la Universitatea Oxford a rezumat-o astfel: „Lumea este părtinitoare, datele istorice sunt părtinitoare, deci nu este surprinzător că primim rezultate părtinitoare.”

În aceeași linie, Christiaens a spus: „Întrucât se bazează pe observații din lumea reală”, AI „ne observă părtinirile și produce rezultate sexiste sau rasiste”. Aplicându-și propriii termeni la ceea ce este cunoscut popular ca gunoi, gunoi (GIGO ), el a spus că problema ar putea fi „mâncarea” care alcătuiește datele instruirii, deoarece este greșită, incompletă sau părtinitoare.

Rezultatele rasiste și sexiste pot fi instruite în sistem pe baza datelor care nu reprezintă în mod adecvat diferențele din populație. El a oferit cazul de a se baza pe datele de instruire bazate pe vorbitori la conferințe în care femeile pot avea doar 20% reprezentare. Când este instruit cu o astfel de reprezentare înclinată, algoritmul va avea o părtinire încorporată.

AI Alchimie

Problema de prejudecată AI nu se datorează întotdeauna fluxului de date, ci și modului în care își rezolvă deciziile. Misterul acelor operații i-a atras atât de mult pe Ali Rahimi și Ben Recht încât l-au comparat cu alchimia.

Deși alchimia poate avea locul ei, nu este ceea ce își doresc oamenii ca răspuns la întrebările lor cu privire la deciziile automate cu consecințe grave. După cum au spus Rahimi și Recht: „Dar acum construim sisteme care guvernează asistența medicală și participarea noastră la dezbaterile civile. Aș dori să trăiesc într-o lume ale cărei sisteme sunt pe cunoștințe riguroase, de încredere, verificabile și nu pe alchimie. ”(Pentru mai multe despre AI în îngrijirea sănătății, consultați 5 Cele mai uimitoare avansuri AI în asistența medicală.)

Dincolo de cutia neagră: descoperirea a ceea ce determină deciziile

Acesta este motivul pentru care unii solicită o modalitate de a introduce transparența în procesul de gândire al sistemelor AI, explicând de ce a ajuns la concluziile pe care le-a făcut. Au fost eforturi din diverse locuri.

Un grup de trei profesori și cercetători de la universitățile americane au lucrat la o soluție în 2016, pe care au numit-o Local Interpretable Model-Agnostic Explanations (LIME). Ei explică abordarea lor în acest videoclip:

Deși a fost un pas în direcția corectă, soluția nu a funcționat perfect. Și astfel cercetările continuă și, în lumina GDPR, cei conectați la UE au un interes deosebit în realizarea AI explicabilă.

Laboratorul de inteligență artificială de la Universitatea din Brussel, o instituție din care a apărut compania Christiaens, este unul dintre locurile dedicate unei astfel de cercetări. Laboratorul a găsit modalități de a lucra cu recunoașterea imaginii și au „rețeaua explicând din punct de vedere lingvistic ce este văzut și de ce” ajunge la concluziile pe care le face despre ceea ce este în imagine, a spus el.

„Algoritmii funcționează întotdeauna în același mod”, a explicat Christiaens. „Datele de intrare sunt traduse în funcții.” La laboratorul AI, acestea au mijloacele „de a explora și a vedea ce s-a întâmplat în arborele de decizii”. Pe această bază, este posibil să „vezi căile care au fost urmate” pentru vezi unde a mers ceva rău, apoi „ajustați și retrăiți”.

De asemenea, IBM și-a îndreptat atenția asupra problemei casetei negre și a anunțat recent oferirea unui serviciu de software, care va prelua prejudecățile și va lua în considerare deciziile AI chiar și în timp ce sistemul rulează prin cloud-ul IBM. Pe lângă avertizarea la timp, oferă sugestii cu privire la datele necesare pentru a contracara rezultatele părtinitoare.

Pe lângă serviciul cloud, IBM oferă consultanță pentru companiile care construiesc sisteme de învățare a mașinilor pentru a încerca să reducă rezultatele părtinitoare în viitor. Poate că și alți experți ai AI se vor implica în consultanță pentru a ajuta la construirea de sisteme mai bune și pentru a oferi o verificare a eventualelor prejudecăți care sunt programate.

Trebuie să ne amintim că sistemele de AI sunt la fel de supuse erorilor ca și oamenii care le-au creat și astfel nimeni nu este mai presus de a da socoteală asupra deciziilor.