ChatGPT wywołał sensację, ale również obawy
Jak czytamy w materiale przygotowanym przez IDEAS NCBR, Chat GPT zapytany o siebie samego do czego najlepiej go wykorzystać odpowiada, że jest dobry w "enerowaniu inspirujących pomysłów na zadany temat, ale nie należy traktować jego słów bezkrytycznie, jak opinii uznanego eksperta". Jednak - jak zauważa agencja - wykorzystywano go przy wydawaniu wyroku sądowego, testowo sprawdzono czy da egzamin lekarski, a w niektórych szkołach w USA został zakazany, bo był wykorzystywany przy pisaniu prac domowych.
ChatGPT dał przeciętnemu "Kowalskiemu" możliwość obcowania ze sztuczną inteligencją, co było również nagłaśniane przez media. Ponadto OpenAI wywołało głośne dyskusje ze względu na możliwość generowania zaawansowanych grafik na podstawie tekstu. To oczywiście sprawiło, że podjęto dyskusje, czy sztuczna inteligencja jest w stanie zastąpić ludzi na miejscach pracy.
Co stoi za sukcesem Chat GPT?
Dr Tomasz Odrzygóźdź, postdoc w IDEAS NCBR centrum badawczo-rozwojowym w obszarze sztucznej inteligencji, prowadzący badania dotyczące przeprowadzania rozumowań przez algorytmy AI skomentował kwestię popularności ChatGPT i wskazał dlaczego to właśnie ta technologia osiągnęła taki sukces. Spory udział miała w tym koncepcja no-code, tzn. nie trzeba pisać skomplikowanego kodu, ani być programistą, aby korzystać z AI.
- Trzeba zauważyć, że w części przypadków szybciej i wygodniej jest napisać precyzyjną linijkę kodu niż tłumaczyć językiem naturalnym, jaki proces powinien nastąpić. W przeszłości pojawiały się koncepcje – takie jak UML – by programy “rysować” poprzez tworzenie odpowiedniego diagramu. Takie podejście nie sprawdziło się jednak na większą skalę - komentuje dr Tomasz Odrzygóźdź.
Wiele zależy od przewidzianego zastosowania. W przypadku tworzenia prostej strony internetowej lub wydawania komend w programach do tworzenia prezentacji multimedialnych, interfejs no-code jawi się jako naprawdę dobre rozwiązanie pozwalające zaoszczędzić czas i poszerzyć grupę użytkowników. Niektóre precyzyjne procesy (jak np. sterowanie dronem) wciąż może być łatwiej opisać kodem niż językiem naturalnym. Pamiętajmy jednak, że ChatGPT potrafi również generować kod. Ciężko w chwili obecnej stwierdzić czy precyzja i jakość kodu generowanego przez ChatGPT będzie na tyle duża, by stał się realną alternatywą dla programowania – dodaje ekspert IDEAS NCBR.
Sztuczna inteligencja może tylko "udawać" że rozumuje jak człowiek
Sztuczna inteligencja od lat była domeną naukowców i wiedza pozostała w obrębie uniwersytetów i ośrodków badawczych. Z drugiej strony może się ona sprawdzić w biznesie i dać ogromną przewagę nad konkurencją. Czy popularność Chat GPT może tę równowagę zaburzyć?
- Rywalizacja między państwami, jak i między firmami oczywiście istnieje, ale nie jesteśmy na nią skazani. Widzimy jej efekty, ale nie wiemy co się dzieje za kulisami. Realizacji działań naukowych na pewno sprzyja otwartość, wymiana informacji i to właśnie one prowadzą do przełomowych rozwiązań. Zwłaszcza obecnie, kiedy cały świat zdaje się mówić o ChatGPT, pojawiają się pytania, czy jest on krokiem w stronę ogólnej sztucznej inteligencji. Nie ukrywam, że opinie na temat przybliżania nas do stworzenia sztucznej inteligencji w środowisku naukowym budzą emocje i opinie na ten temat są podzielone, nie ma też jednoznacznej odpowiedzi. Moim zdaniem istnieje możliwość, że modele tego typu nie do końca dają sobie radę z rozumowaniem. Nawet jeśli na pewnym etapie możemy mieć inne wrażenie, należy wziąć pod uwagę istnienie możliwości, że przy tak dużym nasyceniu danymi do trenowania modelu, on po prostu „udaje”, że umie rozumować - komentuje naukowiec.
Sztuczna inteligencja nie jest obiektywna
Choć Chat GPT nie chce żartować z mniejszości rasowych, czy etnicznych, to chętnie napisał żart o Polakach, co wynikało z tego, że programiści go "nie nauczyli" uwrażliwienia na tę osobowość, co oczywiście zapewne nie było celowe.
- Modele są obciążone uprzedzeniami, ale jest to mniej związane z osobami, które tworzą algorytmy, a w większym stopniu wynika z jakości danych, którymi są zasilane. Jak temu zaradzić? Można próbować je balansować, ale jest to bardzo trudne. Możliwe jest również nauczenie modeli wykrywania “uprzedzonych” danych. Tak stało się w przypadku ChatGPT. Rozwiązaniem tego wyzwania może być większa inkluzywność w zespołach pracujących nad rozwojem sztucznej inteligencji oraz udostępnianie nowych narzędzi z początku tylko w wąskim zakresie, tak by relatywnie niewielka, ale dostatecznie zróżnicowana populacja mogła je przetestować - komentuje ekspert IDEAS NCBR.