Možemo li vjerovati umjetnoj inteligenciji?

AI, web, network, internet

Objavljeno: 10. studenoga 2022.

Vrijeme čitanja: 4 minuta

Stručnjaci naglašavaju da umjetna inteligencija sama po sebi u moralnom smislu nije ni dobra ni loša. No, korištenje umjetne inteligencije može dovesti i do pozitivnih i do negativnih ishoda.

Kako bi vjerovali tehnologiji potreban vam je dokaz da funkcionira i da je točna u svim uvjetima. Ovakvu vrstu garancije nije lako dati za nešto poput automobila bez vozača jer su ceste pune ljudi i prepreka čije je ponašanje  teško predvidjeti. Osiguravanje da su reakcije i „odluke“ sustava umjetne inteligencije sigurne u bilo kojoj situaciji veoma je kompleksno. Povjerenje ide ruku pod ruku s transparentnosti.

Kako možemo učiniti umjetnu inteligenciju pouzdanom?
Kako savršena pouzdanost iz perspektive svih korisnika nije realan cilj, znanstvenici i ostali su odredili nekoliko načina kojima umjetnu inteligenciju možemo učiniti pouzdanijom. Moramo biti strpljivi, učiti iz pogrešaka, popravljati stvari i ne reagirati previše burno ako nešto pođe po zlu. Tim se načelima vodi i Thales.
Thales je posvećen humano-centričnom pristupu digitalnim tehnologijama. Fokus je na tri prioriteta: 
- povećavanje sigurnosti rješenja kako bi svijet bio sigurnije mjesto
- korištenje digitalnih tehnologija kako bismo izgradili svijet odgovoran prema okolišu i postavljanje ljudi u središte digitalnih tehnologija
- sudjelovanje u izgradnji inkluzivnijeg, pravednijeg društva.

Kako bi bio uspješan u ostvarivanju ovih prioriteta, Thales je odredio 10 obveza za digitalno povjerenje i odgovornost:

1. Ljudi i dalje kontroliraju umjetnu inteligenciju
Sustavi koje pokreće umjetna inteligencija sposobni su raditi autonomno. Thales se obvezuje krenuti od premise da ljudska bića moraju zadržati sposobnost preuzimanja kontrole nad ovim sustavima, na temelju slučajeva korištenja utvrđenih s kupcem. Umjetna inteligencija trebala bi poboljšati sposobnost ljudi da donose odluke, a ne zamijeniti ljudska bića.

2. Dizajniranje objašnjivih sustava umjetne inteligencije
Neki sustavi umjetne inteligencije rade s malo ili nimalo jasnoće što se tiče procesa kojim se inputi pretvaraju u outpute. Ovaj fenomen "crne kutije" može narušiti povjerenje korisnika u ove tehnologije. Thales se obvezuje objasniti pravila po kojima algoritmi rade i pružiti pojedinosti o dizajnu samih tehnologija, u mjeri u kojoj je to moguće, prema pravilima koja uređuju povjerljivost podataka i zaštitu osjetljivih informacija. 

3. Usvajanje pristupa privatnosti prema dizajnu (privacy-by-design)
Kako se pojavljuju nove prijetnje, potencijalni kvarovi, zabrinutosti oko dijeljenja osjetljivih informacija, Thales se obvezuje primijeniti načela privatnosti i kibernetičke sigurnosti po dizajnu u razvoju svojih sustava i rješenja. Thales nastoji optimizirati vrste i količine podataka potrebnih za postizanje željenog rezultata.

4. Težnja da Thalesova rješenja budu što sigurnija i otpornija
Kibernetički kriminal ostaje uvijek prisutna opasnost, a jedini način da se zaštitite od ove prijetnje je planiranje unaprijed i implementacija odgovarajuće zaštite. Thales se obvezuje koristiti svoju stručnost, zajedno sa svojim inovacijskim sposobnostima, za razvoj rješenja koja društvo čine digitalno sigurnijim – sada i u budućnosti.

5. Iskorištavanje moći digitalne tehnologije u borbi protiv klimatskih promjena 
Thales se obvezuje podržati inovacije koje pomažu smanjiti korištenje prirodnih resursa i energije te smanjiti emisije stakleničkih plinova.

6. Usvajanje štedljivog pristupa podacima
Predviđa se da će do 2025. globalno stvaranje podataka narasti na više od 180 zetabajta. Tako velika količina podataka predstavlja cijeli niz problema, počevši od energije potrebne za njihovo pohranjivanje i obradu. Pri razvoju svojih digitalnih sustava Thales nastoji biti razuman i proporcionalan u proizvodnji i korištenju podataka. Grupa daje prednost pametnim podacima u odnosu na količinu podataka.

7. Učiniti eko-dizajn normom 
Thales se predano trudi smanjiti ekološki otisak svojih proizvoda.

8. Borba protiv diskriminatorne pristranosti (bias) u digitalnim tehnologijama
Podaci o dizajnu algoritama i obuci mogu uvesti nenamjernu pristranost u sustave umjetne inteligencije za koje se, na primjer, smatra da diskriminiraju određene skupine stanovništva. Od najranije faze dizajna, Thales se obvezuje uspostaviti procese za otkrivanje pristranosti u svojim sustavima umjetne inteligencije.

9. Promoviranje inkluzije kroz digitalne tehnologije
Prema podacima UN-a, više od trećine svjetskog stanovništva i dalje je offline, dok više od milijardu ljudi nema valjane osobne dokumente. 
Thales se obvezuje iskoristiti svoje znanje i stručnost kako bi digitalnu inkluziju doveo do obespravljenih zajednica, i kroz svoje proizvode, poput sustava za digitalnu identifikaciju i telekomunikacijskih satelita, i kroz angažirane inicijative svojih zaposlenika.

10. Pomaganje zaposlenika u snalaženju u digitalnom dobu
Kako bi se oslobodio puni potencijal digitalne transformacije, ljudi bi trebali razumjeti kako nove tehnologije funkcioniraju da bi mogli koristiti koji si im na raspolaganju. 
Thales se obvezuje izgraditi zajednicu informiranih korisnika pružajući digitalni trening svim svojim zaposlenicima. 

Digitalno doba daleko je od kraja, a s obzirom da nas očekuju brojne promjene, ljudi su s pravom zabrinuti što nam donosi sutra. 

Pozivamo vas da nam se pridružite na Thales konferenciji, 15.studenog. Više detalja i prijave ovdje.  

Da bi ova web-stranica mogla pravilno funkcionirati i da bismo unaprijedili vaše korisničko iskustvo, koristimo kolačiće. Više informacija potražite u našoj Politici kolačića.

  • Nužni kolačići omogućuju osnovne funkcionalnosti. Bez ovih kolačića, web-stranica ne može pravilno funkcionirati, a isključiti ih možete mijenjanjem postavki u svome web-pregledniku.