Rečenica „Ma to je AI kriv“ više nije šala. Postaje obrazac ponašanja kojim se odgovornost prebacuje s ljudi na tehnologiju. To dugoročno razara povjerenje, pravdu i jasne granice odgovornosti.
AI kao savršeni izgovor
Ako si u zadnje vrijeme čuo:
„Ma to je AI kriv“
znaj da to nije humor. To je priprema.
Kad nešto pođe po zlu –
kriva poslovna odluka
lažna ili manipulativna poruka
sporni video
algoritamski potez s posljedicama
najlakše je reći:
„Nisam ja. AI ili sustav je.“
AI postaje idealni krivac.
ne raspravlja
ne ide u zatvor
ne traži objašnjenja
Kako nestaje odgovornost
Sve češće ćemo slušati:
„To nisam rekao ja, to je generirao AI.“
„To nisam odlučio ja, algoritam je tako izračunao.“
„To nije stvarno, to je deepfake.“
S vremenom postaje nejasno:
tko je povukao potez
tko je imao moć
tko snosi posljedice
Kad nema jasnog krivca – nema ni pravde.
Sustav koji štiti moćne
AI se sve češće koristi kao štit.
političari se opravdavaju
korporacije peru ruke
institucije se skrivaju iza „procesa“
Greška postoji. Odgovornost – ne.
To nije tehnički problem. To je dizajn sustava.
Etika kao predstava
Pričat će se o:
etičnom AI-ju
regulaciji
odgovornim modelima
Ali u praksi će to često biti:
prezentacija za javnost
konferencija bez posljedica
dokument bez sankcija
Lijepo upakirano kazalište. Dok stvarni ljudi s moći ostaju izvan kadra.
A tko je onda stvarno na sudu?
Ti.
Ti si:
procijenjen
rangiran
filtriran
nadziran
AI se ne koristi da bi se pitalo je li odluka ispravna, nego da se objasni zašto je donesena – o tebi.
Što ovo znači u praksi
Ako koristiš AI u poslu, marketingu ili odlučivanju:
odgovornost je i dalje tvoja
AI je alat, ne autor
„algoritam je tako rekao“ nije izgovor
U AI PRAKTIKUMU ovo stalno naglašavam klijentima:
AI ubrzava odluke, ali ne preuzima krivnju.
Poruka za kraj
AI nije problem.
Problem nastaje kad se ljudi skrivaju iza tehnologije i kad se odgovornost zamijeni protokolom.
U doba inteligencije:
neznanje je izbor. Prebacivanje krivnje također.
FAQ – kratko i jasno
Je li AI pravno odgovoran za odluke?
Ne. Odgovornost uvijek nosi osoba ili organizacija koja AI koristi.
Može li se netko obraniti tvrdnjom da je AI generirao sadržaj?
Sve teže. Sudovi i regulatori traže trag odluke i odgovornu osobu.
Jesu li deepfakeovi stvarni problem?
Da. Posebno kad se koriste kao alat za poricanje stvarnih postupaka.
Štiti li AI više moćne nego obične ljude?
Ako se koristi netransparentno – da.
Rješava li regulacija problem?
Samo djelomično. Bez osobne i institucionalne odgovornosti – ne.
Kako se zaštititi kao pojedinac ili poduzetnik?
Jasnim pravilima korištenja AI-ja i ljudskom kontrolom odluka.
Je li etični AI dovoljan?
Ne bez etičnih ljudi.
Darko Bilandžić
info@aipraktikum.com
U doba inteligencije, neznanje je odabir




