AI przejmuje wyniki wyszukiwania w Google
Jak pisze "Rzeczpospolita" idealnym przykładem błędnego koła jest wpisanie w wyszukiwarce Google frazy "baby peacock", czyli "mały paw", aby znaleźć zdjęcie pisklęcia pawia. Jednak zamiast faktycznego zdjęcia pawia, pojawią nam się grafiki wygenerowane przez AI, jak np. Midjourney, Stable Diffusion, czy Dall-E.
Dyrektor w Kunde & Co., ekspert w zakresie AI Tobias Ambs-Thomsen napisał w mediach społecznościowych, że sztuczna inteligencja przejmuje wyniki Google'a.
- Przyzwyczailiśmy się, że wyszukiwarki dostarczają odpowiedzi opartych na faktach. Ale nie możemy już na tym polegać - pisał Ambs-Thomsen. Jego zdaniem "kończy się era polegania na wynikach w wyszukiwania sieci".
Jak czytamy w "Rz" zdaniem ekspertów zalew takich treści w wyszukiwarce może doprowadzić do zacierania się granic między fikcją, a rzeczywistością. Choć np. Adobe Stock zaznacza, które materiały są stworzone przez AI, to nie wszyscy to robią, a niektóre wręcz celowo wprowadzają w błąd.
Co więcej, powstaje błędne koło dezinformacji, bo treści wygenerowane przez AI trafiają do sieci, a potem są wykorzystywane przez kolejne modele AI do trenowania i jedynie powielane.
Co można zrobić z błędnym kołem dezinformacji?
Jak czytamy w "Rz" eksperci twierdzą, że potrzebna jest edukacja na temat AI i umiejętność krytycznego myślenia. Prof. Dariusz Jemielniak profesor w Akademii L. Koźmińskiego specjalizujący się m.in. w dezinformacji powiedział w rozmowie z dziennikiem, że twórcy modeli AI powinni implementować mechanizmy sprawdzające jakość i prawdziwość danych wykorzystanych do trenowania.
- Serwisy udostępniające treści powinny aktywnie monitorować i moderować zawartość, aby ograniczyć rozprzestrzenianie się dezinformacji. Muszą być odpowiedzialne finansowo, żeby realnie się zaangażować - mówił prof. Jemielniak w rozmowie z "rz"