Profesor Michael Wooldridge iz Oksforda upozorava na mogućnost "Hindenburg-stil" scenarija u kojem bi jedan spektakularan propust teško narušio poverenje u veštačku inteligenciju. The Guardian navodi primere poput grešaka u softveru za samovozeće automobile, AI-napada na aviosaobraćaj ili pogrešnih bankarskih odluka. Dodatni rizici uključuju ekonomske posledice, rast troškova energije zbog data centara i upozorenja regulatora.
Profesor iz Oksforda Upozorava Na „Hindenburg“ Scenario: Šta Ako AI Izgubi Globalno Poverenje?

Brige o uticaju veštačke inteligencije na svakodnevni život postale su sve prisutnije. Prema izveštaju The Guardiana, profesor Michael Wooldridge sa Oksford univerziteta upozorio je na mogućnost „Hindenburg-stil“ scenarija — naglog gubitka poverenja u AI zbog nedovoljnog testiranja i velikog komercijalnog pritiska.
Wooldridge, koji važi za kredibilnog stručnjaka u domenu veštačke inteligencije, nije zanemario ranije navedene rizike kao što su deskilling (gubitak veština) ili poremećaji u obrazovanju. Međutim, on je posebno istakao opasnost od jedne velike, spektakularne greške ili niza događaja koji bi mogli da uruše poverenje u tehnologiju.
„To je klasičan tehnološki scenario. Imate tehnologiju koja obećava mnogo, ali nije onoliko rigorozno testirana koliko bi trebalo, a komercijalni pritisak je nepodnošiv“, rekao je Wooldridge za The Guardian.
Novinski primeri vizualizuju šta bi se moglo desiti: smrtonosna softverska nadogradnja za samovozeće automobile, AI-pokrenut napad koji bi oborio aviosaobraćaj širom sveta ili pogrešna odluka u bankarskom sistemu koja bi pokrenula finansijski lom. Takvi incidenti bi mogli izazvati lančane posledice — od ugrožavanja bezbednosti do ekonomskih potresa.
Do početka 2026. javne debate o budućnosti AI često su bile obojene interesima velikih igrača i onih koji su uložili značajna sredstva u tehnologiju. Glasovi priznatih eksperata kao što su Wooldridge i Geoffrey Hinton (nazivan "kumom AI") imaju težinu koja nadmašuje promotivne izjave kompanija koje razvijaju AI.
Ekonomija je takođe izložena riziku: krajem 2025. investitor Michael Burry upozorio je na mogućnost formiranja "AI balona", dok su i lideri industrije kao Sundar Pichai iz Googlea ukazivali na potencijalne opasnosti.
Van Silicijumske doline, širenje infrastrukture koja podržava AI već je izazvalo konkretne probleme. Zajednice u blizini data centara žale se na buku i zagađenje, a potražnja za električnom energijom povećala je račune u nekim oblastima i do tri puta. Američko Ministarstvo energetike (Department of Energy) upozorilo je da su budući prekidi u snabdevanju strujom izvesni ukoliko elektroenergetske mreže ne povećaju kapacitete.
U drugoj polovini 2025. lokalne zajednice su uspešno zaustavile projekte data centara vredne blizu 100 milijardi dolara, što pokazuje rastuću zabrinutost građana i uticaj koji lokalna politika može imati na razvoj infrastrukture.
„Moramo razumeti da su ovo samo ulepšane tabele — alati i ništa više od toga“, rekao je Wooldridge, upozoravajući na precenjenu predstavu o trenutnim mogućnostima AI.
Zaključno, Wooldridgeovo upozorenje poziva na oprez: veća transparentnost, rigoroznija testiranja i uravnoteženiji pristup u komercijalizaciji tehnologije mogli bi smanjiti rizik od jednog katastrofalnog incidenta koji bi narušio globalno poverenje u AI.
Pomozite nam da budemo bolji.




























