Poate AI să îți detecteze orientarea sexuală sau politică uitându-te la fotografiile tale? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Î:

Autor: Roger Morrison
Data Creației: 28 Septembrie 2021
Data Actualizării: 11 Mai 2024
Anonim
Poate AI să îți detecteze orientarea sexuală sau politică uitându-te la fotografiile tale? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Î: - Tehnologie
Poate AI să îți detecteze orientarea sexuală sau politică uitându-te la fotografiile tale? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Î: - Tehnologie

Conţinut

Î:

Poate AI să vă detecteze orientarea sexuală sau politică doar uitându-vă la fotografiile dvs. prin recunoașterea facială?


A:

Pe scurt: Da, pot și sunt chiar mai buni decât oamenii. Conform unui studiu extrem de neconcordant de la Universitatea Stanford, imaginile fețelor umane conțin o multitudine de informații pe care creierul uman pur și simplu nu le poate prelucra, în timp ce inteligența artificială poate. Conform cercetărilor lor, o rețea neurală profundă a fost capabilă să facă distincția între bărbații homosexuali și heterosexuali în 81% din cazuri, iar în 74% din cazuri pentru femei, comparativ cu doar 61% pentru bărbați și 54% pentru femei pentru judecătorii umani. Dacă algoritmul a avut cel puțin cinci imagini cu o persoană de scanat, procentul de succes a crescut la 91%, respectiv 83 la sută.

Nu numai că AI a reușit să distingă unele caracteristici „sex-atipice”, cum ar fi stilul de îngrijire și alegerile vestimentare, mașina a identificat, de asemenea, unele trăsături fenotipice specifice în caracteristicile lor faciale, cum ar fi bărbații gay cu fălci mai înguste, frunți mai mari și nasuri mai lungi. Indiferent de implicațiile potențiale ale acestei descoperiri (cum ar fi ideea că orientarea de gen ar putea fi legată de unele caracteristici genetice), este destul de înfricoșător cât de dăunătoare ar putea fi aplicațiile acestei tehnologii. De exemplu, acesta ar putea fi folosit de acele guverne care urmăresc persoanele LGBT pentru a le „ecraniza” sau pur și simplu pentru a încălca confidențialitatea utilizatorilor nenumărați pentru tot felul de scopuri rău intenționate - marketingul vizat fiind cel mai puțin rău dintre toate.


Ceea ce o face și mai incomodă este însă faptul că tehnologiile similare sunt deja disponibile și sunt deja utilizate. AI poate detecta mult mai mult decât doar sexualitate, uitându-vă la o imagine a unei fețe umane: Poate detecta emoții, IQ și chiar preferințe politice. Tehnologii similare de profilare psihometrică bazate pe AI au fost folosite pentru a trage date din profiluri și pentru a trage concluzii despre preferințele personale și alegerile pentru stilul de viață. În acest fel, alegătorii vor vedea doar un subset specific de anunțuri politice vizate care ar putea să-și direcționeze în mod subtil alegerile politice.

Creatorul acestui experiment, psihologul Michal Kosinski, și-a exprimat îngrijorarea cu privire la posibilele riscuri dacă această tehnologie a fost folosită în scopuri rele, până în punctul în care el și echipa sa au petrecut mult timp analizând dacă rezultatele ar trebui să fie făcute publice. Consultanța politică Cambridge Analytica a presupus că a folosit informații culese de pe rețelele de socializare pentru a difuza anunțuri care au influențat alegerile prezidențiale ale SUA din 2016 și, chiar, campania britanică Brexit. Potrivit anchetei în curs de desfășurare, o armată vastă de roboți a început să răspândească o serie de știri false fals orientate cu exactitate despre Hillary Clinton pentru a-i conduce pe potențialii alegători să voteze pentru Donald Trump. Multe dintre aceste reclame au fost construite la fața locului de algoritmii inteligenți, pentru a le arăta oamenilor în timpul evenimentelor majore sau a dezbaterilor electorale. AI a măsurat, de asemenea, reacțiile oamenilor, pentru a le consolida eficiența în influențarea alegătorilor lui Clinton în a crede că este o persoană malefică și deranjată.


După scandal, agenția a fost închisă, dar tehnologii similare încă există și pot fi utilizate în continuare cu scopuri rău intenționate. Kosinski a susținut multe discursuri avertizând cu privire la acest risc cu mult înainte de scandal, dar, din păcate, natura umană nu poate fi schimbată. Într-un experiment nepublicat, el a susținut că AI-ul său a fost capabil să facă distincția între fețele republicanilor și democraților, deși a recunoscut că barba poate face diferența. Așadar, pentru toți teoreticienii conspirației (și pentru persoanele care dovedesc confidențialitate), aici este un mare indiciu - dacă doriți să împiedicați guvernul să vă interacționeze în viața privată, creșteți doar o barbă. A imens una, dacă este posibil.