Mam wrażenie, że w pewnym znanym tygodniku zatrudniono na etat czołowych przedstawicieli sztucznej inteligencji – Gemini i ChatGPT. I nie tylko w tygodniku, także w dużym dzienniku i kilku czołowych portalach. Prawdziwa plaga, która rozprzestrzenia się ze strony na stronę – pisze w lutowym felietonie Dawid Kornaga.

To żadne odkrycie. Za to znacznie poważniejszy problem, przez który odechciewa mi się zgłębiać kolejne publikacje czy rzekome reportaże. Nie mam nic przeciwko temu, żeby dziennikarz wymyślił temat, zebrał materiał, sprawdził fakty i zweryfikował osoby. Nie mam też nic przeciwko temu, by później poddał swój tekst weryfikacji przez wybrany model AI. Jeśli algorytm wyłapie błędy, poprawi gramatykę, słowem – nomen omen – zastąpi redaktora i korektora, to trudno. Taka współczesność i nie ma co rozdzierać szat. Materiał żurnalisty, już udoskonalony, idzie do publikacji. Wszystko dobrze, pod jednym jednak warunkiem: że twórca nie wyręczył się technologią tam, gdzie nie powinien. Taki stan rzeczy budzi oczywisty opór.
Jako magister dziennikarstwa może nigdy nie pracowałem w zawodzie, mimo to należę do czujnych i oddanych czytelników prasy oraz mediów. Jestem przekonany, że przez minione lata wyrobiłem sobie wewnętrzny radar, który potrafi odróżnić „prawdziwe” publikacje od tych „wygenerowanych”. Może nie zawsze. W większości przypadków. Nie ma co się oszukiwać: sztuczna inteligencja, potrafiąca być już niezwykle zaawansowana i wysublimowana, znacznie ułatwia dzisiaj pracę „kreatorom contentu”.
Tygodnik zamawia reportaż o ulicy Piotrkowskiej w Łodzi. Po co tam jechać, skoro Gemini spokojnie ogarnie temat. Wskaże ciekawe miejscówki, poda ostrzeżenia, gdzie można stracić nie tylko zęby. I o ile mógłby się tym wspierać prozaik czy scenarzysta w ramach fabuły oraz własnej wyobraźni (jego licentia poetica, której nic nie ogranicza) – o tyle kiedy robi to autor, piszący tak, jakby na tej Piotrkowskiej był, chodził, pił i jadł z lokalsami, trudno mi to zaakceptować.
Nie mam nic przeciwko temu, żeby dziennikarz wymyślił temat, zebrał materiał, sprawdził fakty i zweryfikował osoby. Nie mam też nic przeciwko temu, by później poddał swój tekst weryfikacji przez wybrany model AI. Jeśli algorytm wyłapie błędy, poprawi gramatykę, słowem – nomen omen – zastąpi redaktora i korektora, to trudno. Taka współczesność i nie ma co rozdzierać szat. Materiał żurnalisty, już udoskonalony, idzie do publikacji. Wszystko dobrze, pod jednym jednak warunkiem: że twórca nie wyręczył się technologią tam, gdzie nie powinien. Taki stan rzeczy budzi oczywisty opór.
Efekt powyższych podejrzeń? Jestem głęboko przekonany, że wielu reporterów zwyczajnie na świecie preparuje swoich bohaterów z pomocą AI. Codziennie lub co tydzień muszą dowozić, niczym kurierzy, paczki nowych tekstów. Chroni ich to, że niekoniecznie muszą udowadniać, skąd wzięli rozmówców swoich materiałów. Przeanalizujcie kilka dowolnie wybranych artykułów w sieci, od razu zobaczycie, o co chodzi.
Załóżmy, że autor pisze o ludziach, którzy po wieloletnim życiu w mieście zdecydowali się na przeprowadzkę na wieś. Pojawia się na przykład jakiś Karol (36 l.), który wyczerpująco opowiada o swoim rozczarowaniu miejskim zgiełkiem. Jego żona, Edyta (31 l.), ma podobne odczucia. Na dodatek spodziewają się drugiego dziecka. Pragną wychować je w spokoju, bez pressingu ze strony miasta i jego zagrożeń. Lądują więc w „jakiejś podkarpackiej wsi” (jakiej? tego dziennikarz już nie zdradza). Oczywiście po dwóch latach przekonali się, że na wsi jest ciężko – sielanka okazała się inna, niż ją sobie wyobrażali. Musieli kupić drugi samochód, bo „wszędzie daleko”. Karol, dotąd mający dwie lewe ręce, chcąc nie chcąc, nauczył się różnych robót, z wymianą spłuczki w sedesie włącznie, bo gdy zadzwonili po fachowca, ten odparł, że nawet nie opłaca mu się do nich przyjeżdżać. Edyta (rzekomo) mówi, że rozważają powrót do swojego ukochanego Poznania, gdzie dzieci będą miały bliżej do szkoły…
Albo powtarzające się artykuły o kryzysie: 1) w małżeństwie, 2) w konkubinacie, 3) u poliamorystów, 4) u kogokolwiek, kogo autor sobie jeszcze wymyśli. Dosłownie za każdym razem w tego typu materiałach przedstawiani są „nonejmi”: Sylwia (43 l.) zdradziła męża, lecz nadal go kocha – i co teraz? Roman (29 l.), szczerze szukający miłości, tego jedynego faceta, z którym poleci na Maderę i zamieszka tam do końca życia, Wiola (53 l.) została porzucona przez wieloletniego partnera, który wybrał o dwadzieścia lat młodszy model – i co dalej?
Jestem głęboko przekonany, że wielu reporterów zwyczajnie na świecie preparuje swoich bohaterów z pomocą AI. Codziennie lub co tydzień muszą dowozić, niczym kurierzy, paczki nowych tekstów. Chroni ich to, że niekoniecznie muszą udowadniać, skąd wzięli rozmówców swoich materiałów. Przeanalizujcie kilka dowolnie wybranych artykułów w sieci, od razu zobaczycie, o co chodzi.
Niech się mylę, niech będzie mi potem wstyd, ale naprawdę? Czy doprawdy autorzy tych artykułów mają dostęp do takiej ilości „zwierzeń” Ań (21 l.), Pawłów (49 l.), Roksan (17 l.) czy Mateuszów (28 l.)? Nie mają. Za to chytrze posiłkują się komentarzami REALNYCH psychoterapeutów czy innych specjalistów. Służą oni jako parawan uwiarygodniający wesołą kreację. Nie dziennikarza, tylko modelu AI, który po jego zapewne precyzyjnych promptach wykreował bohaterów, przepraszam: awatary artykułu.
Na pewno są jeszcze autorzy (i w ogóle ludzie pióra, choć współcześnie prosi się o nowe wyrażenie: ludzie klawiatury), którzy nigdy by nie skorzystali ze sztucznej inteligencji. Wbrew pozorom ich strata, gdyż raczej nie osiągną takiej jakości dopieszczania tekstu, jaką ona zapewnia. Za to chwała im za to, że zrobią wszystko, by dotrzeć do tych istniejących nie w ChatGPT Magdalen (43 l.) czy Staszków (64 l.) i faktycznie usłyszeć, co mają do powiedzenia. A to się od razu wyczuwa – niczym wampir prawdziwą krew.
Podsumowując: generowanie „miękkich” reportaży z fikcyjnymi bohaterami jest dziś technicznie banalne. Dla goniącego za deadlinem redaktora wręcz niezwykle kuszące. W efekcie to zjawisko tworzy swoistą wydmuszkę dziennikarstwa, gdzie forma pozostaje idealna, lecz treść pozbawiona ludzkiego pierwiastka.

