Nu te uita înapoi, aici vin! Avansul inteligenței artificiale

Autor: Roger Morrison
Data Creației: 17 Septembrie 2021
Data Actualizării: 11 Mai 2024
Anonim
Nu te uita înapoi, aici vin! Avansul inteligenței artificiale - Tehnologie
Nu te uita înapoi, aici vin! Avansul inteligenței artificiale - Tehnologie

Conţinut


Sursa: Danomyte / Dreamstime.com

La pachet:

Inteligența artificială câștigă rapid mai mult impuls ... și responsabilitate.

Până de curând, directorii corporațiilor ar putea aduce laptopuri sau tablete în ședințele consiliului de administrație (sau, cu firme mai mari, au asistenți cu acele dispozitive așezate în spatele lor) pentru a putea fi folosite ca instrumente de cercetare, dacă apare nevoia. Cuvântul cheie aici este „instrumente” - dispozitivele au fost folosite pentru a aduna informații, astfel încât directorul să poată vorbi inteligent sau să voteze un anumit subiect - sistemul informatic ar putea chiar să facă o recomandare cu privire la acțiunile care trebuie luate, dar tehnologia a fost întotdeauna subsecventă pentru regizorul, care ar putea alege să ignore datele culese sau recomandarea așa-numitei „inteligențe artificiale”.

AI ca factorii de decizie

Ei bine, jocul tocmai s-a schimbat! Așa cum Rob Wile a scris în Business Insider încă din 2014 într-o piesă intitulată „O firmă de capital de risc tocmai numită un algoritm pentru consiliul său de administrație - Heres What Are Realmente”, un sistem de analiză computerizată a fost numit drept egal, nu ca instrument , către un consiliu de administrație. Wile scrie, „Deep Knowledge Ventures, o firmă care se concentrează pe medicamente pentru boli legate de vârstă și proiecte de medicină regenerativă, spune că programul, numit VITAL, poate face recomandări de investiții despre firmele de științe ale vieții, aducând o cantitate mare de date. VITAL își ia deciziile prin scanarea potențialelor companii de finanțare, studii clinice, proprietate intelectuală și runde de finanțare anterioare. " Povestea reală din poveste este că VITAL este un membru de vot al consiliului cu o pondere egală la vot ca oricare alt membru.


E suficient să spunem că aceasta este doar prima dintre astfel de știri care va veni pe știucă.

AI Oferiți oameni umani?

Inteligența artificială a obținut tot felul de victorii. Un computer autodidact a făcut noutăți majore în ianuarie, când a conceput strategia „ultimă” pentru câștigarea la poker după ce a jucat o mână simulată de 2 trilioane. Motivul pentru care povestea s-ar putea să nu atragă atenția multor cititori este că un computer a câștigat deja la șah (bătând un Mare Maestru) și la dame (ca să nu mai vorbim de „Jeopardy”). Totuși, acest lucru este diferit. În aceste cazuri, informația computerizată știa totul despre problema la îndemână și a fost capabilă să scaneze, la fața locului, milioane de fapte, mișcări, strategii etc., pentru a concura cu un adversar. În acest caz, AI nu știe ce cărți are oponentul „în gaură” și, prin urmare, se ocupă de cunoștințe incomplete. De asemenea, nu are un profil pe oponentul său pentru a ști când și cât de des „blochează” și dacă oponentul are sau nu „ticuri” sau expresii care dau roșii (deși poate le învață pe măsură ce sesiunea continuă) ).


Michael Bowling, care a condus proiectul pentru Universitatea din Alberta din Edmonton, Canada, a explicat procesul pentru Associated Press - programul a considerat 24 de trilioane de mâini simulate de poker pe secundă timp de două luni, jucând probabil mai mult poker decât întreaga umanitate a experimentat vreodată. Strategia rezultată încă nu va câștiga fiecare joc din cauza ghinionului pe cărți. Dar pe termen lung - mii de jocuri - nu va pierde bani. El a comentat: „Putem merge împotriva celor mai buni (jucători) din lume, iar oamenii vor fi cei care pierd bani”.

Articolul AP a oferit informații suplimentare despre proiect:

"Strategia se aplică în mod specific unui joc numit limita de cap până în Texas Hold em. În jocul cu doi jucători, fiecare concurent creează o mână de poker din două cărți pe care este distribuit cu fața în jos plus alte cinci cărți plasate pe masă cu fața în sus. .

"Jucătorii plasează pariuri înainte de expunerea cărților în față și apoi din nou pe măsură ce fiecare carte este dezvăluită. Mărimea pariurilor este fixă. În timp ce oamenii de știință au creat programe de joc de poker de ani de zile, rezultatul Bowlings iese în evidență pentru că vine așa aproape de rezolvarea versiunii sale de joc, ceea ce înseamnă, în esență, crearea strategiei optime. Pokerul este greu de rezolvat, deoarece implică informații imperfecte, unde un jucător nu știe tot ce s-a întâmplat în jocul pe care îl joacă - mai exact, ce cărți are oponentul. a fost tratată. Multe provocări din lumea reală, cum ar fi negocierile și licitațiile includ, de asemenea, informații imperfecte, motiv pentru care pokerul a fost mult timp doveditor pentru abordarea matematică a luării deciziilor numită teoria jocurilor. "

Sistemul, descris în revista Science, a atras laude de la alți cercetători de inteligență artificială cu Tuomas Sandholm de la Universitatea Carnegie Mellon din Pittsburgh (care nu a participat la noua lucrare), numind Bowlings rezultatele „un reper” și spunând „prima dată că un joc cu informații imperfecte care este jucat competitiv de oameni a fost rezolvat în mod esențial ".

AI devenind mai inteligent

Dacă acest lucru nu este suficient pentru a-ți păcăli mintea, cum ar fi despre faptul că un robot stă undeva în fața unui computer sau pe un ecran TV și învață cum să facă lucrurile urmărind, „Robot învață să folosească instrumente urmărind videoclipuri YouTube. " Povestea, găsită pe cel mai bun loc pe care îl cunosc pentru a ține pasul cu noile dezvoltări în tehnologia AI, Kurzweil AI, detaliază modul în care sistemul, dezvoltat de cercetătorii de la Universitatea Maryland și NICTA din Australia, este capabil să recunoască formele și să învețe. metode de manipulare a acestora.

Fără bug-uri, fără stres - Ghidul dvs. pas cu pas pentru crearea de software care poate schimba viața fără a vă distruge viața

Nu îți poți îmbunătăți abilitățile de programare atunci când nimeni nu îi pasă de calitatea software-ului.

Moralitatea robotului

Există multe despre care să te gândești când vine vorba de lucrul cu roboții. Într-o piesă din ianuarie, New York Times, intitulată „Moarte de robot”, scriitorul Robin Marantz Henig relatează o problemă prezentată de Matthias Scheutz, de la Laboratorul de interacțiuni Human-Robot de la Universitatea Tufts:

"Imaginați-vă că este o duminică într-un viitor nu prea îndepărtat. O femeie în vârstă, pe nume Sylvia, este limitată la pat și în durere după ce a rupt două coaste într-o cădere. Este îngrijită de un robot de ajutor; hai să-l numim Fabulon. Sylvia sună afară către Fabulon, cerând o doză de calmant. Ce ar trebui să facă Fabulon? Coderii care au construit Fabulon l-au programat cu un set de instrucțiuni: robotul nu trebuie să-i facă rău omului. Robotul trebuie să facă ceea ce omul său îi cere să facă. robotul nu trebuie să administreze medicamente fără să contacteze mai întâi supraveghetorul său pentru a avea permisiunea. În majoritatea zilelor, aceste reguli funcționează bine. Totuși, în această duminică, Fabulon nu poate ajunge la supraveghetor, deoarece conexiunea fără fir din casa lui Sylvia este scăzută. Vocea lui Sylvia este din ce în ce mai tare și cererile ei de medicamente pentru durere devin mai insistente ".

Scheutz explică: "Aveți un conflict aici. Pe de o parte, robotul este obligat să facă persoana fără durere; pe de altă parte, nu poate face o mișcare fără supraveghetorul care nu poate fi contactat. " El subliniază faptul că îngrijitorii umani ar avea de ales și ar putea justifica acțiunile lor către un supraveghetor după fapt.

Henig scrie,

"Nu sunt decizii sau explicații pe care roboții le pot lua - cel puțin nu încă. O mână de experți în domeniul emergent al moralității robotilor încearcă să schimbe asta. Informaticienii fac echipă cu filozofi, psihologi, lingviști, avocați, teologi și experți în drepturile omului pentru a identifica setul de puncte de decizie prin care roboții ar trebui să acționeze pentru a imita propria noastră gândire despre corect și greșit. Scheutz definește moralitatea în linii mari, ca factor care poate intra în joc atunci când alegem între căile contradictorii. "

Până în prezent, roboții se alătură consiliilor de administrație, câștigă la poker, învață abilități prin vizionarea ecranelor și că echipe de experți din domenii multidisciplinare se îmbină pentru a încerca să dezvolte orientări de moralitate pentru roboți (articolul Henig, prea mult timp pentru a da) dreptatea de aici, este deosebit de încurcător și provocator și o recomand tuturor). Wow, dispărut sunt zilele R2-D2 din „Star Wars” și simpla aderență la celebrele „Legi ale roboticii” ale lui Isaac Asimov (din „I, Robot”, 1950):

  1. Un robot nu poate răni o ființă umană sau, prin inacțiune, permite unei ființe umane să facă rău.
  2. Un robot trebuie să se supună ordinelor date de ființele umane, cu excepția cazurilor în care astfel de comenzi ar intra în conflict cu Prima Lege.
  3. Un robot trebuie să-și protejeze propria existență atâta timp cât o astfel de protecție nu intră în conflict cu Prima sau a doua Lege.

Aceste legi au ghidat atât scriitorii de ficțiune științifică, cât și dezvoltatorii de robotică de când Asimov le-a scris. Acum, se pare că, pe măsură ce dezvoltarea robotului accelerează într-un ritm exponențial și se deplasează pe tărâmul complexității, acestea nu sunt suficiente. Henig își încheie coloana cu o notă de precauție:

"Există ceva deosebit de reconfortant în ideea că etica poate fi calculată printr-un algoritm: este mai ușor decât negocierile panicate, imperfecte pe care trebuie să le facă uneori oamenii. Dar poate ar trebui să ne îngrijoreze să externalizăm moralitatea roboților la fel de ușor pe cât am externalizat-o astfel multe alte forme de muncă umană. Întrebările grele ar trebui să ne ofere o pauză ".

Desigur, ea este corectă - dar noi, publicul, trebuie să devenim „publicul informat”, astfel încât deciziile care ne vor afecta angajarea, educația, asistența medicală - aproape întreaga noastră viață - să nu fie luate doar de o „elită intelectuală .“ Pentru ca noi să devenim acest „public informat”, totuși, vom lua de lucru - lucrări care trebuie făcute pentru a ne controla soarta.