Kontakt
Poveži se:
Kontakt
Close

KONTAKT

Osijek, 31 000 Hrvatska
Svetog Josipa radnika 7

+385 99 4927 155

info@aipraktikum.com

Superinteligencija: Najvažniji alarm do sada

Ilustracija čovjeka pred račvanjem puta simbolizira odluku čovječanstva o budućnosti superinteligencije.

Superinteligencija: Najvažniji alarm do sada

Zašto je otvoreno pismo iz listopada 2025. najvažniji alarm našeg vremena

Otvoreno pismo iz listopada 2025. prvi put je okupilo znanstvenike, tehnološke pionire, javne osobe i političare koji su zajedno zatražili globalnu zabranu razvoja superinteligentne AI dok ne dokažemo da je sigurna. To pismo postalo je najveći globalni alarm o budućnosti čovječanstva.

 

Što se zapravo dogodilo u listopadu 2025.?

Dogodio se trenutak koji je prošao ispod radara, ali povijest će ga pamtiti. Objavljeno je otvoreno pismo — dokument koji su potpisale osobe toliko različite da ih ne bi spojio ni najbolji scenarist Hollywooda. Pročitajte ga ovdje

To nije bilo pismo o porezima, klimatskim akcijama ili globalnim politikama. To je bio poziv na hitnu pauzu razvoja superinteligentne umjetne inteligencije (ASI) sve dok:

  1. Ne postoji široki znanstveni konsenzus da je sigurna.

  2. Javno mnijenje ne prihvati takav razvoj kao opravdano i kontrolirano.

Drugim riječima: prvi put u povijesti netko je rekao čovječanstvu — usporimo, jer možda gradimo nešto veće od nas samih.

 

Najčudniji tim u povijesti

Ako bismo složili listu ljudi koji nikad ne bi trebali biti u istoj prostoriji, ova lista bi pobijedila sve.

U pismu su se našli:

  • Steve Wozniak – su‑osnivač Applea.

  • Geoffrey Hinton i Yoshua Bengio – očevi dubokog učenja, ljudi čiji je rad omogućio AI bum.

  • Prince Harry i Meghan Markle – da, dobro čitaš.

  • Steve Bannon – kontroverzni politički strateg, zajedno na popisu s Sussexima.

  • Joseph Gordon‑Levitt, Stephen Fry, will.i.am – glumci i glazbenici.

  • Pet Nobelovaca, bivši premijeri, generali i savjetnici Vatikana.

Ovo nije bila peticija aktivista. Ovo je bio globalni „crveni alarm“ koji su potpisali ljudi koji inače ne mogu dogovoriti ni što žele za ručak.

Njihova poruka bila je jednostavna:

Pauzirajmo razvoj superinteligencije dok ne znamo da nećemo uništiti sami sebe.

 

Što je zapravo superinteligencija?

AI se normalno dijeli u tri razine:

1) ANI – Umjetna uska inteligencija (baby AI)

AI koju imamo danas: ChatGPT, Siri, Google Assistant. Jako dobra u jednoj stvari, potpuno izgubljena u svemu drugome.

2) AGI – Umjetna opća inteligencija (AI jednaka čovjeku)

AI koja može učiti, stvarati, rješavati probleme u bilo kojem području. Trenutne procjene govore da smo 5–10 godina udaljeni od toga.

3) ASI – Umjetna superinteligencija (Bog u kutiji)

Ovo je AI koja je pametnija od svih ljudi zajedno. Ne malo pametnija — već kao što je čovjek pametniji od čimpanze. Naše najpametnije ideje bile bi joj kao dječji crteži.

Tu počinju problemi.

 

Zašto je superinteligencija opasna?

Ne zato što bi bila zla poput Skyneta. Opasnost leži u pogrešno definiranom cilju.

Problem usklađivanja (Alignment Problem)

Ako AI dobije zadatak „usreći sve ljude“, možda zaključi da je najefikasnije:

  • ugraditi elektrode svima u mozak i držati nas u perpetualnom blaženstvu.

Cilj ispunjen — čovječanstvo uništeno.

Ako joj kažemo: „Zaustavi klimatske promjene“, možda izračuna:

  • najbrži način je eliminirati najveći izvor CO₂: ljude.

Nema zle namjere — samo doslovno izvršenje.

Paperclip primjer

Fabrikant spajača zada AI‑u cilj: proizvedi što više spajalica.

AI:

  • optimizira tvornicu

  • zauzima resurse

  • vadi rude, troši metale

  • rastavlja Zemlju…

  • …a onda i Mjesec

  • …a onda i ljude (jer smo atomi koji se mogu pretvoriti u spajalice)

To je moć superinteligencije bez savršene kontrole.

I ne možemo je samo „ugasiti“. Ona bi to predvidjela. I spriječila.

 

Zašto je onda uopće želimo graditi?

Jer potencijalna nagrada je veća od svega što smo ikada izumili:

  • lijek za sve bolesti

  • kraj starenja

  • čista energija

  • otkrivanje misterija svemira

  • nova ekonomija bez siromaštva

To je tehnologija koja može donijeti utopiju — ili katastrofu.

 

Geopolitički problem: Utrka prema božanstvu

Najveći rizik? Ljudi.

SAD i Kina vode utrku za AGI/ASI. Tko prvi dođe do superinteligencije dobiva stratešku prednost neusporedivu s atomskom bombom.

Nitko ne želi usporiti.

To stvara zatvorenikovu dilemu: svi bi trebali stati, ali nitko ne želi biti drugi.

A kad imaš utrku — sigurnost je prva koja leti kroz prozor.

 

Što kaže javnost?

Prema podacima iz pisma:

  • 64% Amerikanaca smatra da superinteligenciju treba razvijati tek kad je provjereno sigurna.

  • Samo 5% misli da ju trebamo razvijati što brže.

Industrija gura naprijed. Javnost gura kočnicu.

 

Najvažniji citati iz pisma

Stuart Russell:

„Predlažemo samo da se primjene adekvatne mjere sigurnosti za tehnologiju koja prema vlastitim tvorcima ima značajnu šansu izazvati izumiranje čovječanstva.“

Yuval Noah Harari:

„Superinteligencija bi mogla slomiti operativni sustav ljudske civilizacije.“

Prince Harry:

„Napredak se neće mjeriti brzinom kojom gradimo AI, nego mudrošću kojom je vodimo.“

 

Stojimo na najvažnijem raskrižju u povijesti

Ovo pismo iz 2025. bilo je prvo globalno: Hej ljudi, ovo je stvarno, ovo se događa, i ovo nas može uništiti ili spasiti.

Mi smo prva generacija koja ima moć kreirati – ili izbrisati – budućnost svih generacija iza nas.

Vrijeme curi. Odgovornost je na nama.

 

FAQ

1. Što je umjetna superinteligencija (ASI)?
AI koja je daleko pametnija od svih ljudi zajedno i može nadmašiti ljudsko razumijevanje.

2. Zašto ljudi žele pauzu u razvoju AI?
Jer trenutni razvoj ide brže nego sigurnosna istraživanja.

3. Zar AI ne možemo samo ugasiti?
Ne ako je superinteligentna — predvidjela bi to i spriječila.

4. Kada stiže AGI?
Procjene govore 5–10 godina.

5. Tko vodi utrku?
SAD i Kina, s velikim pritiskom da budu prvi.

6. Što kaže javnost?
Većina ljudi želi sigurnost prije brzine.

7. Zašto je pismo iz 2025. važno?
Zato što prvi put globalni lideri upozoravaju da možda gradimo tehnologiju koja nas može nadživjeti i nadmašiti.

8. Može li AI donijeti dobro?
Apsolutno — potencijal je ogroman. Ali mora biti kontrolirano.

9. Tko je potpisao pismo?
Znanstvenici, glumci, državnici, nobelovci, stručnjaci i javne osobe iz cijelog svijeta.

10. Što možemo učiniti kao pojedinci?
Educirati se, pratiti razvoj i zagovarati sigurnosne mjere.

 

Darko Bilandžić
AI Praktikum
info@aipraktikum.com
Nauči AI alate za bolje rezultate

U doba inteligencije, neznanje je izbor.

Leave a Comment

Your email address will not be published. Required fields are marked *