Ostatnio coraz częściej pisze się o tym, że ChatGPT popełnia błędy.
Prowadzono także badania, które wykazały, że zdecydowana większość modeli ML (z angielskiego machine learning, czyli uczenia maszynowego), ulega degradacji w czasie.
Pojawia się więc pytanie: czy ChatGPT popełnia i czy w przyszłości popełniać będzie coraz więcej błędów?
Okazuje się, że odpowiedź na to pytanie nie jest prosta.
Wiele artykułów poruszających problem błędów w odpowiedziach sztucznej inteligencji mówi o problemach związanych z retrainingiem (polskim odpowiednikiem mogłoby być „douczanie”) – ale trzeba pamiętać, że ChatGPT zasadniczo nie jest douczany na podstawie bieżących danych, więc te kwestie nie wpływają na jakość jego odpowiedzi. Wersja, z której na dzień dzisiejszy (kwiecień 2023), korzysta większość ludzi (wersja bezpłatna – model językowy GPT-3.5) była „trenowana” na danych zgromadzonych do 2021 roku. OpenAI twierdzi, że posiada on pewną wiedzę na temat wydarzeń późniejszych, ale jest to wiedza ograniczona.
Zadając pytania trzeba więc pamiętać o weryfikowaniu danych z odpowiedzi ChatuGPT i odniesieniu ich do najnowszych badań.
Opinie, że ChatGPT coraz częściej się myli, pojawiają się ostatnio często, ponieważ coraz częściej można o tym usłyszeć i przeczytać w mediach. Nie tylko jednak nie pracował on, jak wspomniano wyżej, na najaktualniejszych danych, ale ChatGPT nie potrafi w gruncie rzeczy odróżnić prawdy od fałszu. “Wie” on tylko jakie informacje były powtarzane często, bez względu na ich poprawność.
Jak widać nie należy ChatuGPT traktować jak „wyroczni”. Warto zawsze przemyśleć kwestię formułowania kolejnych zapytań i każdorazowo weryfikować odpowiedzi.
A co na to sam ChatGPT? Zapytaliśmy go o to, czy popełnia błędy.
Oto co nam odpowiedział:
Opracowanie: Studio Komunikacji na podstawie odpowiedzi udzielonych przez chatGPT.