Czy można ufać sztucznej inteligencji? Coraz więcej osób zadaje sobie to pytanie w dobie popularności narzędzi pokroju ChatGPT. AI potrafi generować zdumiewająco ludzkie odpowiedzi na prawie każde pytanie. Niestety, mimo licznych doniesień o tzw. halucynacjach AI, badania pokazują, że tylko 8% użytkowników faktycznie weryfikuje poprawność odpowiedzi uzyskanych od modelu. Reszta wierzy modelowi na słowo. To poważny błąd. W tym artykule wyjaśnię, dlaczego nie wolno ślepo ufać AI oraz jak każdy – nawet osoba nietechniczna – może łatwo sprawdzić wiarygodność odpowiedzi wygenerowanej przez sztuczną inteligencję.
AI potrafi się mylić – i to przekonująco
Modele AI (np. oparte o tzw. duże modele językowe) imponują wiedzą i elokwencją, ale nie są nieomylne. Kluczowe jest zrozumienie, jak one działają. Taki model nie rozumie świata jak człowiek – on analizuje ogromne zbiory tekstu i przewiduje słowa, które statystycznie do siebie pasują. Nie ma wbudowanej umiejętności odróżniania prawdy od fałszu. Jeśli w danych treningowych było jakieś nieprawdziwe stwierdzenie, AI może je powtórzyć z pełnym przekonaniem. Albo "zgaduje" odpowiedź, gdy brakuje jej faktycznej wiedzy – byle brzmieć sensownie.
Co gorsza, model nie ma poczucia niepewności. Największy problem? Gdy AI się myli, brzmi przy tym bardzo wiarygodnie i pewnie. Może nawet sam sobie zaprzeczyć w kolejnych zdaniach, a i tak przedstawi obie sprzeczne wersje z jednakową pewnością. Taka pewność siebie sprawia, że użytkownik łatwo daje się zwieść – szczególnie, jeśli sam nie zna dobrze tematu.
Warto też pamiętać, że niektóre AI mają ograniczoną aktualność wiedzy. Dla przykładu, standardowa wersja ChatGPT zna dane tylko do 2021 roku – jeśli spytasz o coś, co wydarzyło się później, model może wymyślać odpowiedź lub przedstawiać przestarzałe fakty. To kolejny powód, by zachować dystans do wszystkiego, co "mówi" AI i zawsze sprawdzić samodzielnie istotne informacje.
Przykłady spektakularnych pomyłek AI
Teoretyczne rozważania to jedno, ale najlepiej zobaczyć na przykładach, jak sztuczna inteligencja potrafi błądzić.
Oto kilka głośnych wpadek AI z ostatniego czasu:
• Asystent Google wprowadza w błąd: Eksperymentalna funkcja AI w wyszukiwarce Google została zapytana: „Czy istnieje polskie imię żeńskie, które nie kończy się na literę A?” Odpowiedź przyszła z pełnym przekonaniem: "Tak, na przykład Barbara, Klara, Ewa…" – czyli imiona, które wszystkie kończą się na "a". Widzimy tu, że nawet duży system AI może udzielić odpowiedzi całkowicie sprzecznej z prawdą, a jednocześnie brzmieć, jakby podawał fakty.
• Wymyślone precedensy sądowe: W USA grupa prawników korzystająca z ChatGPT złożyła do sądu pisma, w których powołali się na kilka nieistniejących spraw sądowych. ChatGPT po prostu zmyślił cytowane wyroki, a prawnicy – ufając mu – nawet tego nie zweryfikowali. Sędzia szybko odkrył fałsz, sprawę oddalił, a prawników ukarał grzywną 5 tys. dolarów. To przykład, jak ślepe zaufanie do AI może mieć poważne konsekwencje w realnym życiu.
• AI tworzy fikcyjne źródła: Zdarza się, że model AI dla obrony swojej błędnej odpowiedzi... fabrykuje dowody. Pewien inwestor zapytał chatbota o fakty ze swojej kariery i otrzymał nieprawdziwą informację, jakoby zasiadał w zarządzie firmy, z którą nie miał nic wspólnego. Gdy poprosił o źródło tej rewelacji, AI wskazała rzekomy wpis na jego osobistym blogu opisujący to zdarzenie – oczywiście taki artykuł nigdy nie istniał. Innymi słowy, model sfabrykował całą historię wraz z fikcyjnym odnośnikiem, by tylko podtrzymać swą (błędną) odpowiedź.
Przykładów podobnych "halucynacji" jest mnóstwo – od drobnych przekłamań, przez błędne porady (np. kulinarne z niebezpiecznymi składnikami), aż po całkowicie zmyślone fakty. Wszystkie one uczą nas jednego: AI to świetny asystent, ale kiepski autorytet. Zawsze trzeba brać poprawkę na to, że nawet jeśli odpowiedź brzmi wiarygodnie, może być daleka od prawdy.
Jak weryfikować odpowiedzi AI?
Skoro już wiemy, że nie wolno bezkrytycznie ufać każdej odpowiedzi AI, zastanówmy się: jak możemy się zabezpieczyć przed błędami?
Na szczęście istnieje kilka prostych metod sprawdzania faktów, dostępnych dla każdego użytkownika, nawet bez specjalistycznej wiedzy:
• Poproś AI o źródła informacji. Jeśli model wygeneruje odpowiedź zawierającą fakty czy liczby, śmiało zapytaj: "Skąd to wiesz? Możesz podać źródła?" Bardziej zaawansowane AI (np. niektóre chatboty internetowe lub wyszukiwarki z AI) potrafią wskazać artykuły, z których czerpią informacje. Uwaga: brak konkretnej odpowiedzi lub wymijanie tematu powinno zapalić Ci czerwoną lampkę. Nawet jeśli AI poda jakieś źródła, nie zaszkodzi sprawdzić, czy one rzeczywiście istnieją i potwierdzają daną informację – czasem model może niestety źródła... zmyślić.
• Porównaj odpowiedź z wynikami Google/Wikipedii. Jedna z najprostszych metod weryfikacji to po prostu samodzielne wyszukanie tej samej informacji. Wpisz kluczowe hasła z odpowiedzi AI w Google i zobacz, co mówią niezależne źródła. Jeśli AI twierdzi na przykład, że "pierwszy lot na Marsa odbył się w 1980 roku", szybko znajdziesz w internecie, że to bzdura. Podobnie możesz sprawdzić definicje czy dane liczbowe na Wikipedii lub innych zaufanych stronach. Szukając, zwróć uwagę, czy różne źródła potwierdzają czy zaprzeczają temu, co powiedział model.
• Zadaj pytanie ponownie, inaczej lub innej AI. Modele AI nie zawsze za pierwszym razem udzielą poprawnej odpowiedzi – czasem wystarczy przeformułować pytanie, by uzyskać inną (być może lepszą) odpowiedź. Możesz też skorzystać z alternatyw: jeśli masz wątpliwości co do odpowiedzi ChatGPT, zapytaj o to samo np. w Bing Chat lub innym narzędziu AI. Gdy różne modele się zgadzają, rośnie szansa, że informacja jest prawdziwa (choć to nadal nie gwarancja). Gdy się rozjeżdżają – koniecznie poszukaj w źródłach zewnętrznych, która wersja jest zgodna z faktami.
• Zachowaj szczególną ostrożność w ważnych sprawach. Nigdy nie polegaj wyłącznie na AI w krytycznych tematach – takich jak zdrowie, finanse, prawo, bezpieczeństwo. Model może udzielić rady, która brzmi rozsądnie, ale w rzeczywistości będzie szkodliwa (np. zaproponuje lek, który jest wycofany, albo błędnie zinterpretuje przepis prawny). Traktuj odpowiedzi AI raczej jako wskazówki do dalszego zbadania tematu, a nie ostateczną wyrocznię. W poważnych kwestiach zawsze skonsultuj się z ekspertem lub sprawdź informacje w oficjalnych źródłach, zanim podejmiesz decyzję.
Podsumowanie
Sztuczna inteligencja to potężne narzędzie, które odpowiednio użyte może zwiększyć naszą produktywność i ułatwić dostęp do informacji. Jednak kluczem jest ostrożność. Nie wolno ślepo wierzyć w każde zdanie wygenerowane przez model AI – dokładnie tak, jak nie wierzymy we wszystko, co przeczytamy w internecie. Zamiast tego, traktujmy AI jako pomocnika, asystenta podpowiadającego różne możliwości, które my musimy zweryfikować własnym rozumem i za pomocą niezależnych źródeł. Taka zdrowa dawka sceptycyzmu sprawi, że będziemy mogli czerpać z dobrodziejstw AI bez narażania się na poważne pomyłki.
Jeśli temat odpowiedzialnego korzystania z AI Cię zainteresował i chcesz nauczyć się, jak w praktyce wykorzystywać sztuczną inteligencję bez ryzyka – na przykład automatyzować codzienną pracę za pomocą agentów AI – to mój autorski kurs online Szkoła Agentów AI może być dla Ciebie idealnym drogowskazem. Pokażę Ci krok po kroku, jak bez programowania używać platformy n8n oraz modeli pokroju ChatGPT do usprawniania różnych zadań. Warto wspomnieć, że trwają zapisy do nowej edycji (tylko do najbliższego piątku), a z kodem zniżkowym blogexpert możesz dołączyć w najniższej cenie.