Vijesti o Tehnologiji, Recenzije i Savjeti!

AI for Good: Stvaranje odgovornih i etički usklađenih rješenja u vremenima poremećaja

Napomena: Sljedeći članak će vam pomoći: AI for Good: Stvaranje odgovornih i etički usklađenih rješenja u vremenima poremećaja

Chandramauli Chaudhuri vodi inicijative umjetne inteligencije i strojnog učenja u Fractal-ovoj praksi Tech Media & Entertainment, radeći s višim poslovnim dionicima u nekim od vodećih globalnih poduzeća. Osim što je uključen u istraživanje umjetne inteligencije, poboljšanja sposobnosti i implementacije rješenja, također surađuje s izvršnim direktorima Svjetskog ekonomskog foruma, akademicima i kreatorima politika kao aktivni član IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. Također je dio Planet Positive 2030, paralelne inicijative IEEE Standards Association za poticanje stvaranja politika i poticanje pragmatičnih promjena za održivu budućnost.

Magazin Analytics India intervjuirao je Chandramaulija kako bi stekao uvid u dizajniranje etički usklađenih i odgovornih AI rješenja.

CILJ: Zašto je u današnjem svijetu važno da AI platforme ili usluge budu odgovorne i etički usklađene?

Chandramauli: Područje umjetne inteligencije svjedočilo je neviđenom napretku u posljednje vrijeme. U posljednjih nekoliko mjeseci, rješenja kao što su ChatGPT, Bard, CICERO, Midjourney i nekoliko drugih zaokupila su maštu istraživača i korisnika. Potencijal takvog razvoja i njihove aplikacije koje mijenjaju igru ​​zaslužuju napredno razmišljanje, njegovanje i stalna ulaganja. To nas, međutim, ne smije učiniti potpuno nesvjesnima njegovih potencijalnih rizika ili štetnih učinaka na naše društvo. Kao korisnici, praktičari i programeri revolucionarne tehnologije poput umjetne inteligencije, u našem je zajedničkom interesu razmišljati o tome kako naša rješenja mogu utjecati na različite aspekte naših života, uključujući privatnost, sigurnost i opću dobrobit. Procijeniti i ocijeniti dugoročne učinke koje može imati na gospodarstvo, društvo i okoliš.

Sasvim razumljivo, mnogi od ovih aspekata još uvijek su nejasni i zahtijevaju daljnja istraživanja i evaluacije. Ali snažna predanost etičkim i odgovornim inovacijama od samog početka može pomoći u uspostavljanju kritičnih zaštitnih ograda koje sprječavaju negativne implikacije u budućnosti – ublažavaju pristranosti, potiču društvenu pravednost, ekološku održivost i samoodređenje na individualnim razinama. Glavni cilj je biti svjestan i oprezan bez pribjegavanja pesimizmu ili zanemarivanja značaja takve znanstvene inovacije. Uz sva obećanja, moramo shvatiti da sustavi umjetne inteligencije mogu uistinu biti uspješni samo ako su dizajnirani da služe višoj svrsi – usmjerenosti na čovjeka i globalnoj dobrobiti. Bit će neuspjeh s naše strane ako se sustavi umjetne inteligencije izgrade izolirano kao puki samoposlužni alati za postizanje kratkoročnih ciljeva za odabranu skupinu korisnika. Iz ove perspektive, definiranje holističkih etičkih i odgovornih okvira može nam pomoći da identificiramo i održimo tu finu ravnotežu između neposrednih potreba i dugoročnih ciljeva bez vraćanja na ekstremne i možda nepraktične ideje poput nametanja zabrana razvoja umjetne inteligencije.

CILJ: Koje su najbolje prakse za omogućavanje etičkog usklađivanja i odgovornosti u AI rješenjima u organizacijama i za životni ciklus projekta?

Chandramauli: Jasno definiranje odgovornosti, mogućnosti objašnjenja i vlasništva nad sustavima umjetne inteligencije često je najteži i najkritičniji korak. To znači imati odgovore na neka teška i temeljna pitanja – zašto naše rješenje preporučuje ishode koje daje, kako dolazi do tih preporuka, tko je odgovoran za bilo kakvu štetnu radnju koju rješenje može proizvesti i što je potrebno da se poništi tako zlonamjerne rezultate?

Za organizacije koje ulažu u razvoj nove AI tehnologije, počinje od vrha. Nekoliko dobrih polazišta bilo bi uspostavljanje dinamične i raznolike radne kulture, uključivanje načina razmišljanja o eksperimentiranju i učenju te definiranje smjernica za inkluzivnost i pristupačnost. Nakon što su ovi stupovi dobro uspostavljeni, ostale najbolje prakse nizvodno i na razini projekta kao što su upravljanje podacima i modelima, transparentnost rješenja, testiranje upotrebljivosti, praćenje i praćenje nakon implementacije, itd. puno je lakše implementirati. Dužnost je na višim rukovoditeljima i izvršnim direktorima da postave prave primjere na razini poduzeća i osiguraju da je svaki pojedinac uključen u izgradnju takvih sustava obrazovan, obučen i motiviran da takvim razmatranjima da prioritet.

CILJ: Kako se dizajn i razvoj rješenja umjetne inteligencije mogu učiniti inkluzivnijim i dostupnijim raznolikom rasponu dionika i korisnika?

Chandramauli: Uključiv i pristupačan pristup umjetnoj inteligenciji znači osiguravanje da su prednosti njegovih aplikacija dostupne svima, bez obzira na njihovu pozadinu ili sposobnosti. Mnoge organizacije AI nastoje proizvesti proizvode i usluge koji su uključivi, odgovorni i etični – u početku izgledaju dobro u teoriji, ali postaju prilično izazovni kada dođe do stvarne implementacije. To je zato što zahtijeva temeljnu promjenu u načinu razmišljanja i procesu razmišljanja.

Ključ leži u usmjerenosti na korisnika. Moramo razmišljati dalje od algoritama i biti odgovorni prema onima na čije živote izravno ili neizravno utječu naša rješenja. Na kraju dana, moramo zapamtiti da je umjetna inteligencija samo sredstvo služenja našim potrošačima, a ne krajnji cilj ili uspjeh sam po sebi.

Na organizacijskoj razini, to podrazumijeva ponovno razmatranje mnogih ključnih odluka u cjelokupnom procesu i omogućavanje odlučivanja unatrag – podatke koje treba prikupiti, analizu koju treba izvršiti, modele koje treba koristiti, rezultate koje treba preporučiti, testove koristiti i tako dalje. Iz šire perspektive, to pokreće potrebu za većom suradnjom i transparentnošću među istraživačima, vladama i korporacijama. Cilj bi trebao biti regulirati dizajn i razvoj proizvoda kako bi oni bili sigurniji bez usporavanja napretka istraživanja umjetne inteligencije i dijeljenja znanja.

Chandramauli: To je super pitanje. S društvenog stajališta, predmeti kao što su znanost, tehnologija, javna politika, ekonomija itd. nisu zapravo neovisni jedni o drugima. Sve je to temeljno povezano u definiranju društvenog tkiva u kojem živimo. Isto vrijedi i za odnos između umjetne inteligencije i zakona – pravna i regulatorna infrastruktura usmjerava razvoj tehnologije i obrnuto.

Samo da malo više razradimo ovo – s jedne strane imamo usvajanje odgovornih AI sustava unutar zakonskih okvira. Ovdje umjetna inteligencija može pomoći u stvaranju novih pravila i propisa, poboljšati funkcioniranje i učinkovitost pravnih sustava i poboljšati svoju sposobnost da doprinese sveukupnoj ljudskoj dobrobiti. A s druge strane, imamo aktivne rasprave oko davanja pravnog statusa AI sustavima. To uključuje dodjelu ograničenja, prava i obveza prema razvoju i implementaciji takvih sustava. Važan aspekt koji je nedavno privukao veliku pažnju su zakoni o vlasništvu i autorskim pravima koji se odnose na sadržaj koji generira AI. Naime, sustavi poput DALL-E, ChatGPT itd. mogu ponekad isključiti citate ili pripisivanja izvornim izvorima. To naravno izaziva mnoga pitanja i zabrinutost velikih dijelova društva u vezi s kršenjem prava intelektualnog vlasništva.

Nije potrebno spominjati da je stvaranje dobro definiranih pravnih okvira za rješavanje tako osjetljivih i kritičnih tema još uvijek u povojima. No, s vremenom i ispravnim namjerama, nadamo se da ćemo doživjeti budućnost u kojoj pravni sustavi i umjetna inteligencija rade u harmoniji kako bi pročistili, riješili i poboljšali mnoge takve moralne dileme. ‘Etičke smjernice za pouzdanu umjetnu inteligenciju’ i kasniji ‘Zakon o umjetnoj inteligenciji’ koje je Europska komisija predložila 2019. odnosno 2021., zajedno s brojnim programima standardizacije koje je razvio IEEE, značajne su prekretnice u ovom nastojanju.

Chandramauli: Ovo je posebno relevantna tema s obzirom na najnovija događanja. Ali prije nego što krenemo u etička razmatranja, važno je najprije razumjeti što su Generative Pre-trained Transformers ili GPT zapravo.

Rješenja poput ChatGPT-a i novijeg GPT4 izgrađena su na masivnim modelima velikih jezika, tj. arhitekturama dubokog učenja koje se sastoje od milijardi do možda čak trilijuna parametara obučenih na golemom korpusu tekstualnih podataka kako bi se proizveli rezultati razgovora poput ljudskih. Dok su rezultati iznimno kreativni i ulijevaju strahopoštovanje, to također čini takve sustave gotovo potpuno crnom kutijom ispod haube, što dovodi do zabrinutosti o sljedivosti, točnosti i pouzdanosti informacija koje proizvodi. S rastućom stručnošću i rječitošću ovih modela, oni se lako mogu koristiti za širenje teorija zavjere, stvaranje toksičnosti i izmišljanje laži, ako se ne reguliraju.

Štoviše, kako takve tehnologije postaju sve popularnije i dobivaju pristup osjetljivim osobnim podacima, postavljaju se neka pitanja o tome koliko se odgovorno prikupljaju, pohranjuju i koriste korisnički podaci. Uostalom, gdje god postoji masovna pohrana osjetljivih informacija, postoji zabrinutost za kibernetičku sigurnost i privatnost. Pošteno je reći da bi bilo dobro da tvrtke koje ulažu u Generative AI i slične tehnologije obrate dodatnu pozornost na sveukupno povjerenje, sigurnost i pouzdanost takvih usluga. Bez ovih mjera, to može dovesti do gubitka vjere među korisnicima, potencijalno naštetiti ambicijama i potencijalu umjetne inteligencije.