
Ostatnio coraz częściej pisze się o tym, że ChatGPT popełnia błędy.
Prowadzono także badania, które wykazały, że zdecydowana większość modeli ML (z angielskiego machine learning, czyli uczenia maszynowego), ulega degradacji w czasie.
Pojawia się więc pytanie: czy ChatGPT popełnia i czy w przyszłości popełniać będzie coraz więcej błędów?
Okazuje się, że odpowiedź na to pytanie nie jest prosta.
Wiele artykułów poruszających problem błędów w odpowiedziach sztucznej inteligencji mówi o problemach związanych z retrainingiem (polskim odpowiednikiem mogłoby być „douczanie”) – ale trzeba pamiętać, że ChatGPT zasadniczo nie jest douczany na podstawie bieżących danych, więc te kwestie nie wpływają na jakość jego odpowiedzi. Wersja, z której na dzień dzisiejszy (kwiecień 2023), korzysta większość ludzi (wersja bezpłatna – model językowy GPT-3.5) była „trenowana” na danych zgromadzonych do 2021 roku. OpenAI twierdzi, że posiada on pewną wiedzę na temat wydarzeń późniejszych, ale jest to wiedza ograniczona.
Zadając pytania trzeba więc pamiętać o weryfikowaniu danych z odpowiedzi ChatuGPT i odniesieniu ich do najnowszych badań.
Opinie, że ChatGPT coraz częściej się myli, pojawiają się ostatnio często, ponieważ coraz częściej można o tym usłyszeć i przeczytać w mediach. Nie tylko jednak nie pracował on, jak wspomniano wyżej, na najaktualniejszych danych, ale ChatGPT nie potrafi w gruncie rzeczy odróżnić prawdy od fałszu. “Wie” on tylko jakie informacje były powtarzane często, bez względu na ich poprawność.
Jak widać nie należy ChatuGPT traktować jak „wyroczni”. Warto zawsze przemyśleć kwestię formułowania kolejnych zapytań i każdorazowo weryfikować odpowiedzi.
A co na to sam ChatGPT? Zapytaliśmy go o to, czy popełnia błędy.
Oto co nam odpowiedział:
Opracowanie: Studio Komunikacji na podstawie odpowiedzi udzielonych przez chatGPT.


  Tak, ChatGPT może popełniać błędy, podobnie jak każdy inny system lub człowiek. Jednakże, im większa baza wiedzy, na której został wytrenowany, tym mniejsza szansa na popełnienie błędów. W przypadku ChatGPT, baza wiedzy jest bardzo duża, co oznacza, że jego wyniki są zwykle bardzo dokładne i precyzyjne. Niemniej jednak, ChatGPT jest nadal maszyną, która działa na podstawie algorytmów i matematycznych modeli, a zatem zdarza się, że może dać niepoprawne lub niewłaściwe odpowiedzi w niektórych przypadkach, szczególnie gdy pytania są nieprecyzyjne lub wymagają zaawansowanej analizy.
  Czy w związku z błędami jakie popełnia ChatGPT nadal warto się z nim komunikować?