Powstał niebezpieczny precedens. Sztuczna inteligencja zabiera miejsca pracy?
Redaktor naczelny Radia Kraków i likwidator spółki Mariusz Pulit odpowiada portalowi money.pl, w mailu, że "żaden pracownik OFF Radia Kraków nie został zwolniony". Zdaniem Mateusza Demskiego, który współtworzył programy w radiu "powstał groźny precedens.
Jak pisze w obszernym poście, "to nie jest tylko i wyłącznie sprawa małej rozgłośni w Krakowie. To niebezpieczny dla wszystkich precedens. Media publiczne nie są polem do eksperymentów, są miejscem do rzetelnej dyskusji. Ten eksperyment ma być skierowany do pokolenia Z, więc robi się z nich króliki doświadczalne" - dodaje.
Dyrektorka Centrum Inteligentnych Technologii Uniwersytetu Łódzkiego prof. Dominika Kaczorowska-Spychalska podkreśliła, że sztuczna inteligencja nie powinna zastępować dziennikarzy w ich pracy, lecz ich w niej wspierać. "Idealny wzór to połączenie inteligencji dziennikarza i AI" - powiedziała PAP.
Kaczorowska-Spychalska przyznała w rozmowie z PAP, że tego typu rewolucyjny pomysł wykorzystujący sztuczną inteligencję, był już wcześniej wdrażany w innych krajach oraz w Polsce, choć nie na tak dużą skalę.
Ekspertka od sztucznej inteligencji wymieniła, że już w 2018 r. pojawili się pierwsi wirtualni spikerzy telewizyjni w Chinach, którzy mówią z taką samą intonacją, jak osoby, które stanowiły ich pierwowzór i mają też taką samą mowę ciała. Do tego grona można również zaliczyć Fedhę z Kuweit News, czy Basię w Radiu Piekary albo Krzemka z Radia Akadera.
"Zaskoczył mnie natomiast sposób, w jaki o AI w OFF Radiu Kraków mieliśmy się okazję dowiedzieć. Wyszło na to, że sztuczna inteligencja stała się przyczyną redukcji etatów dziennikarzy w tej rozgłośni. To jednak nie AI jest za to odpowiedzialna, a strategia związana ze zmianą formuły tego radia, za którą stoją przecież ludzie" – zaznaczyła.
Takie są zagrożenia związane z zastępowaniem dziennikarzy sztuczną inteligencją
Rozmówczyni PAP zwróciła również uwagę na wiele innych niebezpieczeństw związanych z zastępowaniem dziennikarzy sztuczną inteligencją.
To przede wszystkim - jak mówiła - kwestia wiarygodności prezentowanych treści. Czy faktycznie odwołują się one do zaistniałych sytuacji, opublikowanych raportów i wypowiedzi ekspertów, czy są być może jedynie efektem halucynowania systemów AI. Brak takiej weryfikacji może bowiem prowadzić do dezinformacji lub pogłębiania zjawiska polaryzacji w kontekście opinii, czy postaw względem np. poszczególnych partii politycznych, krajów, osób.
"Wyzwaniem może okazać się też przestrzeganie standardów etyki dziennikarskiej, nadmierne epatowanie treściami, które są sensacyjne, ale nie zawsze rzetelne, potencjalna stronniczość systemów AI, czy ryzyko wystąpienia zjawiska dyskryminacji określonych grup społecznych np. osób o odmiennej karnacji skóry lub orientacji seksualnej. Wyzwaniem będzie też zagwarantowanie atrakcyjności prezentowanych treści i w dłuższej perspektywie, sam fakt, że są one tworzone przez sztuczną inteligencje, obawiam się, że nie wystarczy" – wyjaśniła prof. Kaczorowska-Spychalska.
Do dyskusji włączył się też Dariusz Standerski wiceminister cyfryzacji, który poinformował PAP, że zwrócił się do Radia Kraków z prośbą o informację, czy wykorzystywana tam AI jest godna zaufania, zgodnie z podstawowymi założeniami unijnego rozporządzenia o sztucznej inteligencji.
"Każda zmiana może być wprowadzona albo bez żadnej kontroli, i tworzyć nierówności, albo w sposób, na którym wszyscy skorzystamy. I dlatego w ramach prac nad sztuczną inteligencją chcemy także włączyć do dyskusji o jej wykorzystaniu jak najszersze grono przedstawicieli różnych sektorów, różnych branż, tak żebyśmy mogli dbać o tę spójność społeczną i ograniczać nierówności" - zaznaczył polityk.