Inteligjenca artificiale do të dominojë jetët tona?

Inteligjenca artificiale do të dominojë jetët tona?

508
0
NDAJ

Është pyetja që bëjnë të gjithë, por nuk është ajo e duhura. Në të vërtetë do të duhet të preokupohemi mbi të gjitha më mënyrën sesi ta menaxhojmë këtë teknologji në mënyrë të përgjegjshme.

Në një qendër të madhe serverash diku – imagjinon një server farm në Nevada apo në New Mexico, por duket se ka më shumë të ngjarë në veri të Virginia – ka një regjistrim të time shoqeje që flet në kuzhinë. Nuk e dinte se ishte regjistruar, pasi nuk i kishte lexuar termat dhe kushtet e përdorimit të Echo, asistentit dixhital të Amazon. Në regjistrim, tek i cili mund të kem akses çdo herë që dua, ime shoqe më pyet se pse Echo është e njohur rëndom si Alexa. “Pse kanë zgjedhur Alexa?”, më thotë. “Duhet të ketë një motiv”. Përdoruesit më ekspertë të Echo e dinë se Alexa zgjohet dhe nis të dëgjojë – e të regjistrojë – sapo e përmend. Por në të vërtetë nis e regjistron edhe përpara se të jetë shqiptuar emri i saj. kjo do të thotë se është gjithmonë në dëgjim? Ndjej tashmë të rritet paranoja, reagimi i zakonshëm i inteligjencës humane ndaj asaj artificiale. Jemi bërë kuriozë dhe, në të njëjtën kohë, jemi frikësuar nga perspektiva e makinave që mund të na përgjigjen siç do të bënte një njeri dhe se, në një nivel të caktuar, deri mund të duken humane. Nuk mungojnë paralajmërimet preokupuese lidhur me rreziqet e inteligjencës artificiale. Na zgjon, shkatërron privatësinë tonë dhe përmbys debatin public. Do të na marrë punë dhe, në fund, mund të shkatërrojë vetë njerëzimin. Unë nuk di në çfarë dhe kë të besoj. Por a jemi të sigurtë se po bëjmë pyetjet e duhura?

“Alexa, pse quhesh kështu?”.

“Emri im frymëzohet nga biblioteka e Aleksandrisë së Egjiptit, që përmbante të gjithë dijen e botës së lashtë”.

Alexa është inteligjente dhe kompetente. Provoj ta mashtroj duke e quajtur Amex, stadium i futbollit të Brighton, qytetit ku banjo. Nuk jep shenjë jete. Alexa është çuditërisht e zonja të njohë zërin tim, të interpretojë komandat e mia dhe përgjithësisht të bëjë atë që i kërkoj. Po, e zonja. Për ndonjë motiv, thuajse të gjitha aplikacionet e inteligjencës artificiale kanë zë femëror: Cortana e Microsoft, Siri i Apple dhe deri edhe asistent piloti i avionit luftarak Eurofighter Typhoon. Duket se njerëzit reagojnë më mirë ndaj një zëri femëror. “Tentojmë ta antropomorfizojnë teknologjinë”, thotë filozofi Stephen Cave nga Leverhulme Centre for the Future of Intelligence e Cambridge University. “Me rritjen e aplikacioneve të inteligjencës artificiale dhe përhapjen gjithnjë e më të madhe të tyre, do të fillojmë t’u japim emra këtyre sistemeve dhe t’i trajtojmë sikur të ishin pjesë e ekipit tonë”. Dhe kjo është e rrezikshme, thotë Joanna Bryson e Bath University britanik: iluzioni i ngjashmërisë me qeniet njerëzore gjeneron një ndjenjë false sigurie. Sipas Bryson, që është edhe ajo një hulumtuese e specializuar në inteligjencën artificiale, njerëzit duhet të paralajmërohen nëse në shtëpinë ku banojnë ka një Echo, një Google Home apo çfarëdo asistenti dixhital tjetër. Do të ishin më të kujdesshëm ndaj asaj që thonë, duke e ditur se fjalët e tyre mund të dëgjohen, regjistrohen dhe analizohen. Por pjesa më e madhe e njerëzve nuk ka ardhur në këtë pikë. “Do të besojnë se inteligjenca artificiale ekziston vetëm kur një android do t’u hyjë nga dera”, thotë Cave. Por revolucioni tashmë ka nisur, vetëm se nuk e kemi kuptuar. Dhe për momentin nuk duket shumë revolucionar.

“Alexa, për çfarë hyn në punë?”.

“Jam krijuar për të riprodhuar muzikë, për t’u përgjigjur pyetjeve dhe për të qenë e dobishme”.

Çuditërisht, Alexa nuk përmend mbledhjen e të dhënave për llogari të Amazon, Apple, Google, Facebook e të gjithë të tjerëve. Kompanitë që e përdorin theksojnë se i duan ato të dhëna për të përmirësuar jetën e përdoruesve: për të kuptuar se çfarë kam ndërmen të them kur gabojnë të shkruajnë atë që po kërkojnë, për të përcaktuar se cilin postim të miqve duan të lexojnë apo për të plotësuar dëshirat e tyre. por këto të dhëna shërbejnë edhe për të shitur njoftime e produkte dhe për të përsosur vetë algoritmat e inteligjencës artificiale. Google, Amazon, Microsoft dhe të tjerët kanë lënë të hapur disa prej algoritmave të tyre në mënyrë që zhvilluesit e jashtëm të mund t’i përdorin për aplikacionet e tyre, duke përmirësuar në të njëjtën kohë kodet që kompanitë e mëdha inkorporojnë në sistemet e tyre të inteligjencës artificiale. E gjitha kjo nënkupton se nuk ka nevojë për një kuti që flet në kuzhinë për të komunikuar me një sistem të inteligjencës artificiale ka mundësi pa e ditur. Për shembull, emailat e dërguar supermarketit britanik Ocado lexohen rregullisht, listohen sipas rendit të prioritetit dhe transferohen nga një aplikacion që bazohet mbi algoritmin TensorFlow e Google. Herën e fundit që keni telefonuar një call center ka mundësi që t’u jetë përgjigjur një aplikacion, që ju ka pyetur se çfarë dhe e ka transferuar thirrjen në bazë të përgjigjes tuaj.

Sot aplikacionet e inteligjencës artificiale miratojnë (apo refuzojnë) kërkesat për kredi, përcaktojnë premiot e sigurimit dhe zbulojnë mashtrimet e bëra me kartat e kreditit duke ju individualizuar transaksionet e pazakonta. “Inteligjenca artificiale është tashmë përreth nesh me një seri aplikacionesh praktike”, thotë Sabine Hauert, eksperte e robotikës nga Bristol University. Atëhere pse mendojmë që kjo teknologji nuk ka ardhur akoma? Pjesërisht për shkak të alarmeve si ato të biznesmenit Elon Musk, themeluesi i Tesla, dhe të kozmologut Stephen Haëking. Të dy flasin shpesh e me dëshirë për një të ardhme në të cilën makinat bëhen të këqija. Në 2016 Haëking ka deklaruar se inteligjenca artificiale mund të shkaktojë katastrofën më të madhe të historisë njerëzore. 3 vite më parë ka thënë deri se “mund të nënkuptojë fundin e racës njerëzore”. Në gusht Musk ka shkruar në Tëitter se inteligjenca artificiale mund të përbëjë “një rrezik shumë më të madh se Koreja e Veriut”. Kjo ide për një fund apokaliptik nuk përkon me realitetin në fakt banal që shohim, kështu që e marrin për të mirëqenë se inteligjenca artificiale nuk ekziston akoma. Mark Zuckerberg, Administratori Delegat i Facebook, i është përgjigjur një prej paralajmërimeve të para apokaliptike të Musk, duke ishte i thënë se ishte reagim “të papërgjegjshmish”. Por është normale që e ka thënë, apo jo? Dija që ka Zuckerberg për argumentin është e “kufizuar”, ka komentuar Musk.

“Siri, duhet të kemi frikë prej teje?”.

“Jam i sigurtë që nuk e di”.

Është një përgjigje evasive dhe e dyshimte. Flas me Siri, asistentin virtual të iPhone tim thuajse çdo ditë. I kërkoj që t’i dërgojë një mesazh time shoqeje apo të bëjë një shënim në axhendën time, asgjë që mund të përdoret ndonjehëre kundër meje. Siri dhe Alexa nuk kanë trup, sigurisht që do të kishin vështirësi të përdornin pistoletën. Por edhe shprehja në këto terma e frikën tonë ndaj inteligjencës artificiale denoncon paaftësinë e të menduarit racionalisht ndaj premtimeve dhe sfidave potenciale të saj. E ngatërrojmë vazhdimisht me robotët, sidomos ata të këqinj si Terminator. “Në fantazinë popullore inteligjenca artificiale merr formën fantashkencore e “njerëzve prej metali”, të robotëve që do të na vjedhin punën apo do të zhvillojnë spontanisht një qëndrin dashakeqës ndaj racës njerëzore”, thotë Euan Cameron, ekspert i inteligjencës artificiale i kompanisë së konsulencës PwC. Ky imazh lind sidomos nga vitet e para e jetës të inteligjencës artificiale, nga letërsia fantastiko – shkencore e viteve ’50, që nga ana e saj ishte një reagim ndaj përparimeve shkencore e teknologjike të pasluftës. Padyshim, shumë prej kërkimeve lidhur me inteligjencën artificiale janë financuar nga ushtarakët. Për shembull, Siri është një product dytësor i një projekti të zhvilluar për të ndihmuar ushtarakët. Garat e DARPA Grand Challenge, një kompeticion për mjete pa vozitës i financuar nga Defense Advanced Research Projects Agency (DARPA), një agjenci e Departamentit amerikan të Mbrojtjes që merret me zhvillimin e teknologjive ushtarake, kanë stimuluar lindjen e automjeteve pa vozitës që Musk dhe tesla e tij, veç të tjerëve, shpresojnë ta përhapin kudo. Padyshim, armët përdorin gjithnjë e më shpesh softuerë inteligjentë që mundësojnë të individualizohen objaktivat armike dhe të qëllojnë pa nevojën e ndërhyrjes njerëzore.

Disa qeveri, për shembull ajo britanike, janë impenjuar që të veprojnë në mënyrë të tillë që të jetë gjithmoë një njeri ai që merr vendimin për të qëlluar. Kurse sistemi izraelian i mbrojtjes raketore Iron Dome është totalisht i automatizuar. Nëse intercepton një raketë apo një bombë në ardhje, qëllon. Nuk ka nevojë për ndërhyrjen e një qenieje njerëzore. Por kur automatizimi bëhet autonomi, inteligjenca artificiale bëhet objekt debate, pasi ka mundësi pas 20 vjetësh do të kemi sisteme autonome dhe inteligjente armësh që nuk kanë nevojë për ne. ushtritë janë gjithmonë në kërkim të një avantazhi dhe është e vështirë se të gjitha vendet do ta bllokojnë kërkimin në këtë fushë. Të gjitha vendet në gjendje që ta bëjnë do të kërkojnë që t’i zhvillojnë këto teknologji dhe në të njëjtën kohë të bëjnë marrëveshje ndërkombëtare që ua kufizojnë përdorimin. Në vijim të presioneve të ushtruara nga Kombet e Bashkuara, janë nënshkruar marrëveshje të ngjashme për armët kimike dhe për lazerat verbues. “Edhe pse nuk mund ta shmangim kimiken në bazën e këtyre armëve, ndalimi i Kombeve të Bashkuara u aka zvogëluar përdorimin në fushat e betejës”, thotë Toby Walsh, një hulumtues në fushën e inteligjencës artificiale e të robotikës nga New South Wales University i Australisë. Vetëm sipas skenarëve më të errët është e mundur që pjesa më e madhe e jona të ndeshet me një pistoletë inteligjente. Ama ndërkohë kërkimi ecën përpara. Nuk ka më të bëjë aspak me idenë e Alan Turing për makina që imitojnë funksionimin e trurit njerëzor dhe që veprojnë si ne. inteligjenca e vërtetë artificiale përbëhet nga programme që luhen në kompjuterë të ndodhur brenda kutishë të mëdha metalike. Këto aplikacione i përsosin përgjigjet e tyre duke përpunuar të dhënat që, për shembull, përmbledhin nga të gjitha ndërveprimet e Alexa me përdoruesit e saj. Nuk mund ta ndalosh një pushke as sikur të ishte lënë në hyrjen e një server farm. Atyre u interesojnë vetëm të dhënat. “Në gjendjen aktuale, inteligjenca artificiale është në thelb një sistem kuptimi automatik i bazuar mbi të dhënat statistikore”, thotë Ross Anderson nga Cambridge University. Kjo lloj inteligjence artificiale përpunon informacionet e disponueshme duke kërkuar që të individualizojë në brendësi të tyre skema të rregullta dhe u vlerëson rëndësinë për objektivat e përcaktuara nga krijuesi i tyre: për shembull, për të fiksuar premion siguruese të një personi. Përgjigja e sistemit na jep një provë të veprimit të inteligjencës artificiale, që nga ana e sa e përdor për të operuar më mirë. Nëse ju duket gjë e mërzitshme, keni të drejtë. Ama inteligjenca artificiale shërben për të bërë detyra të mërzitshme.

“Siri, je më inteligjent se unë?”.

“Hëm, këtë nuk e di”.

E pabesueshme, Siri duhet ta dijë përgjigjen e kësaj pyetjeje. Unë dhe ju jemi shumë më inteligjentë se çdo aplikacion i inteligjencës artificiale. Veç ju në mos qofshi robot që po e lexon këtë artikull teksa kërkon tekste për të vjedhur në rrjet. Por nëse jeni, nuk e kuptoni atë që po them, atëhere pse po flas me ju? Edhe “kuptim automatic” duket një shprehje e gabuar për të treguar atë që bën inteligjenca artificiale. Algoritmet “kuptojnë” duke e modifikuar përpunimin e tyre normal të të dhënave, në mënyrë që të sigurojnë rezultate më të mira për objektivin e tyre. Pas kësaj nuk “dijnë” asgjë, në ndryshim nga ne që, shpresohet, tani lidhur me këtë argument të dini më shumë sesa 5 minuta më parë. Nuk mund as ta harrojnë apo ta kujtojnë qëllimisht në mënyrë të gabuar një informacion, ta përdorin për t’ia transmetuar dikujt tjetër, për t’u dukur më inteligjentë apo për të vendosur se dimë sa duhet dhe është më mirë të pushohet së lexuari ky artikull dhe të shkohet e të lexohet diçka më interesante. Ne qeniet njerëzore kemi “një inteligjencë të përgjithshme”, domethënë mund të aplikojmë nocionet dhe dijet e kuptuara në shumë situate dhe në mjedise të ndryshme. AlphaGo, softueri i zhvilluar nga Google DeepMind për lojën kineze go, mund të mundë kampionin botëror njerëzor në një ndeshje go, por nuk mund të drejtojë një makinë apo të më mundë në një kuic culture të përgjithshme. Di të bëjë vërtet mirë një gjë të vetme. Një aplikacion inteligjence artificiale nuk di asgjë nga përvojat, të ardhmet e imagjinuara dhe raportet me qeniet e tjera njerëzore. Përndryshe do të prodhonte analiza dhe kapacitete vendimmarrëse shumë të ndryshme nga ato të paraqitura deri më tani. Sipas Neil Laërence, një hulumtues nga Sheffield University, ky nuk është vetëm motivi për të cilin makinat nuk janë akoma në gjendje të imitojnë trurin njerëzor, por do të thotë edhe se nuk do të jenë asnjëherë në gjendje. Inteligjenca jonë buron në një masë të mirë nga ndjesia e pasjes së një qëllimi në jetë, nga kufizimet tona kohore dhe nga përfshirja emotive me të ardhmen, thotë Laërence. “E gjitha kjo nuk mund të imitohet nga makinat”, ka thënë në një seminar lidhur me temën, “pasi ato nuk vdesin”. “Sipas meje, gabimi ynë më i rëndë është se mendojmë që inteligjenca artificiale do të bëhet diçka e ngjashme me inteligjencën njerëzore”, vëren Cave. “Funksionimi i sa nuk ka të bëjë aspak me atë të trurit njerëzor. Për sa u përket objektivave, kapaciteteve dhe kufizimeve, do të jenë thellësisht të ndryshme nga ne, majmunë me një tru të madh”.

Të ndryshëm, jo domosdoshmërisht superiorë apo inferiorë, thekson Nello Cristianini nga Bristol University. “Është pakuptim të këmbëngulësh në konsiderimin e asaj njerëzore si paradigma e vetme e mundshme e inteligjencës dhe është akoma më shumë të mendosh se i përfaqëson pikën më të lartë”, thotë hulumtuesi. “Inteligjenca ekzistonte shumë më përpara se të shfaqej qenia e parë njerëzore, sigurisht përpara se të evoluonte gjuha”. Cristianini e përkufizon inteligjencën në një mënyrë lehtësisht të ndryshme: është si një agjent që ndjek një objektiv në një mjedis që nuk mund ta kontrollojë krejtësisht. Një agjent inteligjent mbledh informacione, mëson, përshtatet, ka mundësi bën një plan apo një arësyetim dhe pastaj vepron. “Cilësia e sjelljes së tij do të varet nga objektivat e tij dhe nga reagimi i mjedisit”, thotë ai. “Pulat që kalojnë rrugën, makinat e Google që lëvizin në trafik, shitësit e Amazon që propozojnë një libër apo një ulje kanë të gjithë një objektiv të qartë dhe duhet ta arrijnë në një mjedis kompleks. Mund të mësojnë nga gabimet e tyre”. Parë nga jashtë, kjo sjellje komplekse mund të duket potencialisht kërcënuese, por kush është brenda i konsideron aplikacionet e inteligjencës artificiale pak më shumë se instrumenta të dobishëm dixhitalë. Inteligjenca është “një seri kalkulimesh që gjenerojnë veprime”, thotë Bryson. Do të përdorim makinat për t’u bërë më inteligjentë, ndërsa kompanitë do të vazhdojnë të përdorin të dhënat dhe përvojat tona për të përmirësuar algoritmet e tyre. Por aplikimet e inteligjencës artificiale nuk do ta kenë një objektiv të tyrin, pasi nuk do të mund ta kenë: mund të evoluojnë në mënyra të ndryshme, por do të vazhdojnë megjithatë të ndjekin urdhërat tona. “Duhet t’i konsiderojmë instrumenta të thjeshtë”, thotë Hauert. Ama një instrument gjithmonë mund të përbëjë kërcënim, apo jo?

“Siri, do të pëlqentë të ishe gazetar?”.

“Kjo është puna jote, Michael, jo e imja”.

Një gjë preokupon më shumë se të tjerat: që inteligjenca artificiale mund të na heqi punën. Nga sondazh i 2016 ka dalë se 82% e njerëzve mendon se zhvillimi i inteligjencës artificiale do të shkaktojë një humbje të vendeve të punës. Makinat mund të shkaktojnë uljen e rrogave, duke reduktuar vlerën e punës njerëzore dhe duke u mundësuar kompanive që të bëjnë më shumë para duke kursyer tek kostot. Shumë ekonomistë theksojnë se prej disa vitesh automatizimi në rritje ka influencuar ndjeshëm mbi rritjen e pabarazive. “Duket se kjo tendencë po përshpejtohet dhe ka të ngjarë që përdorimi i inteligjencës artificiale më të avancuar do t’i përkeqësojë gjërat”, thotë Stuart Russell, i University of California Berkeley në Shtetet e Bashkuara. “Në rast se qeveritë nuk marrin masat e duhur, në 15 apo 20 vitet e ardhshme mund të ketë pasoja domethënëse”. Njëra mund të jetë taksa mbi inteligjencës artificiale për t’ju paguar kompanive që kursejnë kursejnë duke zëvendësuar punonjësit me algoritmat. Një tjetër mund të jetë futja e një të ardhure bazë universal që u mundëson punëtorëve të zëvendësuar nga makinat që të kenë gjithsesi një shtëpi, një asistencë shëndetësore dhe mallrat e nevojshme për të jetuar. Në vitet e fundit ankthi i shkaktuar nga automatizimi është rritur. Deri më tani ka prekur sidomos punëtorët. Por tani edhe jakat e bardha kanë frikë se inteligjenca artificiale do të nisë të zëvendësojë llogaritarët, kirurgët, analistët financiarë, punonjësit e studiove ligjore dhe gazetarët. Deri në çfarë pikë kjo ka probabilitet apo deri është e mundur varet nga njerëzit me të cilët flet. Tashmë kemi algoritma që funksionojnë më mirë se qeniet njerëzore në marketingun online, në parashikimin e vendimeve duke filluar nga studimi i çështjeve të mëparshme, në konsulencën financiare apo në hartimin e raporteve mbi bilancin e një kompanie. Në 2013 Carl Frey dhe Michael Osborne, dy hulumtues të Oxford University, kanë botuar një ese në të cilën theksojnë se në Shtetet e Bashkuara 47% e vendeve të punës mund të humben për shkak të kompjuterizimit dhe të automatizimit. Më së fundmi, hulumtuesit e OCSE-së e kanë reduktuar këtë numër në 9%, pasi në vend që të zhduket, vendet e punës të ndryshojnë. Ekonomisti David Autor nga MIT-i hipotezon se inteligjenca artificiale do t’u bashkangjitet të gjithë punëtorëve, përveç atyre më pak të specializuar, por nuk do t’i zëvendësojë.

Për shembull, në mjekësi instrumentat që e përdorin sigurisht që po bëjnë hapa mbresëlënës përpara. Një algoritëm kuptimi automatik mund ta individualizojë rrezikun e një infarkti përpara kardiokirurgut. Duke kërkuar skema përsëritëse në të dhënat e pacientit, mund të evidentohen zona të anashkaluara nga specialistët e sektorit, si faktori i mëtejshëm i rrezikut të diabetit. Por aplikimet diagnostikuese kryejnë ende gabime, edhe pse të ndryshëm nga ato të qenieve njerëzore. Kjo të bën të mendosh se një bashkëpunim midis inteligjencës artificiale dhe asaj njerëzore mund të na garantojë një të ardhme më të mirë. Për shembull, në një studim mbi diagnistikimin e tumorëve metastazikë në gji, një algoritëm kuptimi automatik ka bërë gabime në 7.5% të rasteve dhe një patolog në 3.5%, ndërsa të dy bashkë kanë arritur një përqindje gabimi prej 0.5%. Deri aq shumë i prituri evolucion i automobilave pa vozitës nuk ecën siç e shpresojmë. Parasëgjithash, mjetet nuk do të shkonin asgjëkundi pa një lidhje internetore, pasi duhet të komunikojnë me një bazë me qëllim që një qenie njerëzore të mund të ndërhyjë dhe, po të jetë e nevojshme, “ta pilotojë në largësi” atë. Derikur mbulimi i rrjetit nuk do të jetë total, makinat pa vozitës do të mund të lëvizin vetëm brenda qyteteve. Në një farë mënyre, sapo hyhet në detaje, duket sikur djalli zhduket. Inteligjenca artificiale nuk aspiron që të bëhet padrone e university. Aplikimet e saj nuk do të kenë kurrë një vetëdije dhe nuk do të mund të vendosin se nuk kemi më të drejtë në vendin tonë në planet. Kemi qenë ne qeniet njerëzore që i kemi krijuar dhe nuk ka motiv të mendohet se do ta humbasim ndonjëherë kontrollin. Kurse Russell mendon se, në vend që të bëhen fantazi paranojake lidhur me makina që urrejnë qeniet njerëzore dhe vjedhin vende pune, do të duhej të preokupohemi për përdorimin e gabuar e sistemeve të inteligjencës artificiale, që krijon problem sociale të vështira. Rreziku më i madh është se ka mundësi që projektimi të jetë skadent, thotë ai. “Rreziku afatgjatë është që të jenë të paafta, jo me vetëdije”.

“Alexa, e di se kush të ka programuar?”.

“Jam krijuar nga Amazon”.

Sikur të ishte gjithçka që më duhet të di. Zëri i qetë i Alexa duket se shpërndan perla urtësie. Por edhe pse përgjigjet e saj janë të duhura, do të ishte mirë të dija nga vijnë, që të mund të vlerësoj garimet e mundshme të programimit, motivacionet dhe paragjykimet që kanë prapa, siç do të bënim me një inteligjencë humane të çfarëdoshme. Por nuk është e lehtë ta dish. Tek Google asnjeri nuk di të thotë se pse AlphaGo ka bërë lëvizjet që ka bërë kur ka mundur kampionin e botës: procesi i saj i kuptimit është i padeshifrueshëm. Një aplikacion inteligjence artificiale i projektuar për të vlerësuar nevojën e të sëmurëve me pulmonit në një spital ka gabuar në vlerësimin e atyre që vuanin edhe nga azma, duke i klasifikuar si një kategori më pak në rrezik. Statistikisht kjo është e vërtetë, por algoritmit i mungonte një informacion: probabiliteti i mbijetesës më i lartë i detyrohen vëmendjes më të madhe nga ana e mjekëve dhe kurave më intensive që merrnin. Kur përdoret inteligjenca artificiale për të marrë vendime të rëndësishme, ai i kompetencës bëhet një problem i madh. Le të marrim rastin e një gjykatësi të Ëisconsin që në majin e 2017 ka përdorur një algoritëm kuptimi automatik për të dënuar Eric Loomis me 6 vite burg. Programi, që quhet Compas dhe i shitur nga Northpointe, vlerëson rrezikun e recidivitetit mbi bazën e të dhënave lidhur me yë akuzuarin. Algoritmi ka llogaritur se Loomis do të ishte recidiv, duke e shtyrë gjykatësin që të thotë se ishte “identifikuar nha programi Compas si një individ jashtëzakonisht i rrezikshëm për komunitetin”. Loomis nuk i është lejuar as që t’i shikojë proceset logjike në bazën e algoritmit, as t’i kontestojë ato, pasi bëhej fjalë për informacione sekrete. Gjykata Supreme e Wisconsin e ka refuzuar apelin e tij. Frank Pasquale, një pedagog i së Drejtës në University of Maryland, e ka barazuar një algoritëm sekret me “dëshminë e një eksperti anonym, që nuk është e mundër të pyetet”.

I njëjti diskutim vlen për ratet ku inteligjenca artificiale merr vendime lidhur me jetën tonë që nuk mund të kontestohen. Nganjëherë është thjesht përdorimi sekret që i bëhet që e bën jashtëzakonisht preokupuese. Për shembull, duket e mundur që në Mbretërinë e Bashkuar dhe në Shtetet e Bashkuara disa kompani të punësuara nga përgjegjësit e fushatave elektorale kanë përdorur aplikime të inteligjencës artificiale, të ushqyera prej të dhënave të ardhura nga rrjetet sociale, për të influencuar votuesit pa e kuptuar as vetë këta, duke u dërguar përmbajtjet e profileve të tyre në Facebook. Që këto akuza janë të vërteta apo jo, algoritmet e Facebook sigurisht që janë përgjegjës për një polarizim të pavullnetshëm të politikës. Qëllimi i tyre është që të na japin atë që na pëlqen të lexojmë dhe shpesh bëhet fjalë për përmbajtje që pasqyrojnë opinionet tona dhe, për pasojë, i konsolidojnë ato në vend që të na sigurojnë anën tjetër të medaljes. Pjesa më e madhe e kompanive që zhvillojnë apo përdorin aplikacione të inteligjencës artificiale nuk kanë qëllime as të mira, as të këqija, thjesht janë naivë, thotë Cameron: “Shumë programme mund të bëjnë gjëra të mahnitshme, por nuk janë shkopinj magjikë për t’u instaluar dhe harruar”. Nëse duam të theksojmë efektet negative të inteligjencës artificiale dhe të shfrytëzojmë ato pozitivë, duhet të jemi mjaft të kujdesshëm sesi ta përdorim teknologjinë.

Hulumtuesit janë të vetëdijshëm për betejën që i pret: të bindësh njerëzit që ta pranojnë realitetin e inteligjencës artificiale më shumë sesa mitin e saj. sistemet do të jenë gjithmonë të mirë apo të këqinj sipas njerëzve dhe shoqërive që i programojnë. Duhet të kërkojmë një marrje përgjegjësie më të madhe. “Nevojitet shumë më tepër transparencë në shpjegimin se kur këto algoritme janë përdorur për të marrë vendime dhe sesi funksionojnë, nga ku vijnë të dhënat, çfarë kriteresh përdoren”, thotë Cave. Nevojiten edhe norma që të përcaktojnë sesa të dhëna personale mund t’u jepen programeve. “Pranojmë qetësisht ndërhyrje në privatësinë tonë prej nja 20 vitesh”, thotë Cristianini. “Tashmë jetojmë në një ku informacionet tona personale, nxirren, shiten dhe përdoren pasi kanë vlerë. Do të duhet të fillojmë të pyesim se ku duhet ta vendosim limitin”, përndryshe rrezikojmë që ta sakrifikojmë lirinë dhe autonominë tonë. Kjo është e vërteta banale: nuk duhet t’I frikësohemi një lufte deri në pikën e fundit të gjakut me makinat, por as ta lëmë veten të mashtrohemi nga kompetenca e tyre në dukje josulmuese. Ekzistojnë pyetje legjitime që duhet të bëjmë lidhur me inteligjencën artificiale.

“Alexa, mund të fikesh vetë?”.

[Drita ndize dhe rishuhet, por nuk përgjigjet].

“Alexa, më dëgjon?”.

“Jam këtu. Nis të të dëgjoj sapo shqipton emrin tim”.

Po sigurisht, e di.

(Michael Brooks për New Scientist)

 

Përgatiti

ARMIN TIRANA

 

 

LEAVE A REPLY