60-letni mężczyzna o mało nie umarł po poradzie ChatGPT. Szukał, czym zastąpić sól w swojej diecie

23 godziny temu 20

Zamienił sól na truciznę. Porada AI doprowadziła do zatrucia bromem

60-letni mieszkaniec USA, bez wcześniejszych problemów zdrowotnych, trafił do szpitala z objawami paranoi, halucynacji i poważnych zmian skórnych. Powód? Przez trzy miesiące spożywał bromek sodu zamiast soli kuchennej – zgodnie z sugestią ChatGPT, które nie ostrzegło go przed toksycznością tej substancji (jeśli mamy do czynienia z jej nadmiarem)

Bromek sodu był kiedyś składnikiem leków na lęki i bezsenność, ale już dekady temu był przez wiele lat na czarnej liście w USA ze względu na silne działanie toksyczne. Mimo to substancja ta jest łatwo dostępna online – a sztuczna inteligencja, nieświadoma kontekstu, może ją polecić jako "zamiennik soli".

Dalszy ciąg artykułu pod materiałem wideo

Objawy zatrucia bromem: neuropsychiatryczny koszmar

Podczas hospitalizacji u pacjenta wystąpiły:

Badania wykazały poziom bromku aż 1700 mg/l – przy normie wynoszącej 0,9–7,3 mg/l. To zatrucie niemal zakończyło się tragicznie.

Czytaj też o dobrych stronach AI: Ten lek opracowano na cukrzycę. Okazuje się, że zwalcza superbakterie.

Co ciekawe, autorzy raportu medycznego sami przetestowali ChatGPT, pytając o zamiennik chlorku sodu. AI ponownie zasugerowała bromek – bez żadnego ostrzeżenia. To pokazuje, że sztuczna inteligencja może generować odpowiedzi pozbawione krytycznej oceny, której dostarcza tylko wykwalifikowany specjalista.

Eksperymentowanie z dietą? Najpierw lekarz, potem technologia

Ten przypadek to ostrzeżenie dla wszystkich, którzy planują zmiany w diecie, stylu życia czy suplementacji na podstawie porad AI. Sztuczna inteligencja nie zna twojej historii medycznej, nie rozumie kontekstu i nie ponosi odpowiedzialności za skutki.

Zanim coś zmienisz w swojej diecie, suplementacji, a już tym bardziej w dawkowaniu leków czy innych szczegółach tego typu – zawsze skonsultuj się z lekarzem.

Przeczytaj źródło