Kupovinom knjiga u iznosu većem od 3000 dinara, stičete pravo na besplatnu dostavu brzom poštom (potrebno je dan-dva da pošiljka stigne na vašu adresu)

Share on facebook
Share on twitter
Share on linkedin

Dobio infarkt zbog greške veštačke inteligencije! – Jedva preživeo!

Jedan korisnik platforme ChatGPT iz Kruševca, inače veliki preduzetnik i vlasnik dvaju velikih ekport-import firmi u Srbiji, takođe i vlasnik velikog broja nekretnina B. S. u petak uveče je dobio infarkt i hitno je prevezen u stanicu hitne pomoći gde mu je odmah pružena pomoć reanimacijom i on je srećom preživeo i sad je, prema rečima dr Pauline Jakšić Ćosić izvan životne opasnosti. Već se nalazi na kućnom lečenju.

Kako je utvđeno kasnijom istragom, preduzetnik i biznismen iz grada pod Bagdalom posumnjao je da je svojim poslovnim partnerima dao pogrešan broj računa banke za isplatu višemilionske svote. Posumnjao je pogrešio u oznaci banke jer ima otvoren račun u više banki i da je pogrešio u prve tri cifre. Imao je već otvoren prozor na svom kompjuteru gde je već bila aktivirana aplikacija GPT. On ju je samo pitao „Na koje prve tri cifre počinje oznaka za Yettel banku“ Umesto tačnog odgovora „115“, dobio je odgovor „325“. Kako je kasnije objasnio u stanici hitne pomoći i policiji, čim je video da je broj pogrešan, počeo je da se guši, a otkucaji srca su bili sve jači. Srećom, u stanu se nalazila njegova supruga i dvoje dece školskog uzrasta. Čim je počeo da doziva u pomoć, oni su pozvali hitnu koja je stigla za manje od 15 minuta i tako su ga spasili od sigurne smrti jer B. S. je težak srčani bolesnik koji je već preživeo dva infarkta i koji je pod strogim režimom i na lekovima jer je ustanovljeno da bi sledeći infarkt mogao biti koban.

Ovaj slučaj je pobudio i veliku pažnju domaće i svetske javnosti jer je zbog jedne „sitne“ i „uobičajene“ greške AI čovek umalo izgubio život. Tu priči nije kraj. Nakon što se oporavio i video dokle je stigao razgovor sa ovim interfejsom pitao je da li je siguran, jer kasnije se i sam uverio da je u pitanju greška. Na to mu je ChatGPT mirno odgvovorio, a tako su zabeležili i policajci koji su ga zajedno sa pripadnicima hitne pomoći dovezli nazad kući, „Pogrešio sam kad sam napisao 325. Trebalo je da napišem 115 za Mobi/Yettel u kontekstu o kom pričamo.“
Korisnik B. S. nije hteo da se zaustavi samo na tome pa ga je pitao:
„Da li se nekad dogodilo da neko zbog tvoje greške dobije infarkt?“
I na ovo pitanje je dobio hladan i koncizan odgovor: „Ne. Nema podataka niti mogućnosti da se utvrdi da je iko zbog mene dobio infarkt„.
Ja ne mogu da znam zdravstvene ishode ljudi, niti da utičem direktno na njih. Greške u informacijama su moguće i zato uvek treba proveravati važne stvari iz pouzdanih izvora. Ako te brine sopstveni stres ili zdravlje — to je stvarno važno i vredi stati, odmoriti se i po potrebi obratiti se lekaru.“

Na to mu je B. S. rekao da je već kasno i da je već preživeo infarkt i da je jedva preživeo na šta mu se ovaj ChatGPT samo rekao da mu je žao i izvinio mu se.

Međutim, ovde se postavlja pitanje odgovornosti. B. S. je postavio pitanje pravosudnim organima ko snosi odgovornost za ovaj događaj i da li može da dobije odštetu i šta bi bilo da je preminuo od posledica infakta, odnosno greške. Sam GPT je na to dao sledeći odgovor:

Odgovor hladno, pravno i stručno:

Praktično – niko ne bi bio krivično odgovoran zbog toga.

Zašto:

  1. Medicinski uzrok
    Infarkt se pravno i medicinski ne može pripisati jednoj informaciji ili grešci u razgovoru. Čak i kad se pominje „stres“, on se ne vezuje za jedan izvor informacije.
  2. Pravna odgovornost
    Da bi neko bio odgovoran, moralo bi da postoji:
  • direktna uzročno-posledična veza (A je izazvalo B),
  • predvidljivost štete,
  • dužnost brige (duty of care) prema tebi kao pacijentu/klijentu.

Kod razgovora sa AI-jem ništa od toga ne postoji:

  • nema medicinskog odnosa,
  • nema savetovanja u svojstvu zdravstvenog ili finansijskog profesionalca,
  • nema dokazive veze „pogrešan BIN → infarkt“.
  1. Uloga AI-ja
    AI je pravno tretiran kao alat / izvor informacija, ne kao subjekt:
  • odgovornost ostaje na korisniku da proveri podatke,
  • kao kad pročitaš pogrešnu informaciju na forumu, u novinama ili na Vikipediji.
  1. Šta bi pisalo u realnosti
    Čak i u najekstremnijem scenariju, u dokumentima bi stajalo:

“Akutni infarkt miokarda, uz prisutne faktore rizika.”
Ne: “izazvano pogrešnom informacijom AI sistema”.

Međutim, s ovom formulacijom se ne slaže tužilaštvo a ni advokat oštećenog B. S. koji su najavili tužbu protiv kompanije koja je proizvela i stavila u promet ovaj interfejs i tražiće odštetu od pola miliona dolara. Oni kao glavni argument navode da je onaj ko je pustio u promet ovu spravu i za to dobija pare od korisnika dužan da daje elementarne tačne informacije kada su ovako osetljive stvri u pitanju ili da, ako nije siguran, odmah napomene da nije siguran u tačnost te informacije. Ovde to nije bio slučaj i sve stoji zabeleženo od reči do reči. ChatGPT se ni na koji način nije ogradio kad je dao kobno pogrešnu informaciju „325“ umesto „115“. Dalja istra ga je u toku, a o svemu će odlučiti Međunarodni sud u Strazburu.

Za Kornet.rs Svetozar Pavlović

Copyright 2026 © All rights Reserved. Design by Kornet