Sztuczna inteligencja czy prawdziwy PR?

Parę lat temu trafił w moje ręce raport „Ludzie wciąż potrzebni” (ang. Humans Still Needed), opublikowany przez Chartered Institute of Public Relations. Było to pionierskie badanie, ujawniające wpływ technologii, a w szczególności sztucznej inteligencji, na praktykę public relations. Raport przewidywał wpływ, jaki będzie miała sztuczna inteligencja na pracę w PR w ciągu najbliższych pięciu lat

Już w 2018 roku organizatorzy badania zauważyli, że rozmowa na temat AI jest spolaryzowana pomiędzy zaprzeczaniem a techno-paniką. W raporcie stwierdzono, że 12 proc. wszystkich umiejętności specjalisty ds. public relations można już uzupełniać (a w przyszłości prawdopodobnie będzie można całkowicie zastąpić) sztuczną inteligencją, a w ciągu pięciu lat odsetek ten może wzrosnąć nawet do 38 proc. Natomiast jeśli chodzi o pozostałe z 52 wyróżnionych wcześniej w badaniu umiejętności, to do nich, jak się domyślamy z optymistycznie brzmiącego tytułu Raportu, „ludzie będą wciąż potrzebni”.

Choć nic nie odczuwa, to miewa halucynacje

Minęło przewidywane 5 lat i prognozy się sprawdziły. Dziś o generatywnej sztucznej inteligencji (SI) mówi się niemal na każdym kroku, każdy szanujący się magazyn posiada w swoim portfolio chociaż jeden ekspercki artykuł na ten temat, a hasło „generatywna sztuczna inteligencja” nie schodzi z czołówek portali internetowych. Uruchomiony pod koniec 2022 roku ChatGPT zyskał ponad milion użytkowników w ciągu zaledwie 5 dni (dla porównania Netflixowi zajęło to 41 miesięcy, Facebookowi 10, a Instagramowi 2,5 miesiąca). Zdobycie 100 milionów użytkowników zajęło ChatGPT zaledwie dwa miesiące!

I choć dziś firmy PR korzystają już niemal na co dzień z tego lub innego narzędzia do generowania treści, to powszechnie wiadomo, że ChatGPT choć bywa przydatny, nie jest doskonały i często miewa „halucynacje” – gdyż takim słowem określa się sytuacje, w których chatboty, nie znając odpowiedzi na nasze pytanie, po prostu zmyślają. To oczywiście niejedyna wątpliwość, jaką wzbudzają w środowisku branżowym.

Nawet osoba niebędąca copywriterem szybko zauważy w wygenerowanych przez ChatGPT tekstach błędy stylistyczne, interpunkcyjne czy składniowe. Będzie ich więcej lub mniej, ale na pewno się pojawią. Przygotowanie dobrego tekstu z pomocą chatu nie jest zatem ani błyskawiczne (jak niestety wielu uważa), ani nie może się obejść bez człowieka, w tym przypadku bez copywritera, który ma szansę przygotować znacznie rzetelniejszy research, dopytać klienta o kontekst, dołożyć niezbędne emocje, korzystając z językowych gier i zabawy słowami przyciągnąć uwagę odbiorców, a czasem nawet żartem zachęcić do zakupu. Treściom wygenerowanym przez sztuczną inteligencję brakuje po prostu… emocji. W tym przypadku sztuczna inteligencja stanowić może doskonałą inspirację albo sposób na przełamanie weny twórczej, jednak pamiętajmy, że prawdziwy PR to relacje międzyludzkie, które prócz całego naręcza „know how” opierają się przecież na podstawowych ludzkich cechach, takich jak empatia, zaufanie, poczucie humoru, a tych umiejętności nie można zautomatyzować.

W więzieniu opinii

Bardzo podobało mi się przeczytane kiedyś porównanie wyszukiwarki internetowej Google do „nauczyciela” oferującego cały zestaw lektur do przeczytania, a ChatuGPT do „dobrego wujka”, który już te wszystkie lektury przeczytał i oferuje gotową odpowiedź. Właśnie tej wygenerowanej gotowej opinii warto poświęcić parę słów. Ponieważ sztuczna inteligencja nie proponuje kilku źródeł, z których można zaczerpnąć informacje, a raczej już zredagowaną odpowiedź, ogromnym niebezpieczeństwem dla PR-owców korzystających z narzędzi AI jest wpadnięcie w tzw. „bańkę informacyjną”. Algorytmy sztucznej inteligencji, jak wiemy, nieustannie podążają za naszą aktywnością w sieci. W ten sposób się uczą i trenują. Bazując na historii naszych wyszukiwań, oferują jedynie korespondujące z nią treści. W ten sposób algorytmy filtrują informacje, zamykając nas w swoistym więzieniu, w którym nie ma okien ani drzwi, które można otworzyć, by poznać np. mniej popularne, odmienne opinie na dany temat. Dla „prawdziwego” PR-owca to niebezpieczna sytuacja grożąca dezinformacją lub podatnością na manipulację. Wierzymy jedynie w to, w co sztuczna inteligencja chce, byśmy wierzyli, gdyż filtrując treści, pokazuje nam tylko to, co chce nam pokazać. Narzędzia takie jak ChatGPT pozbawiają nas w ten sposób samodzielnego myślenia i krytycyzmu w wyborze źródeł informacji.

SI w służbie MS

Generowanie nowych treści przez SI nie dotyczy rzecz jasna tylko języka. W ostatnich miesiącach media społecznościowe dosłownie zwariowały, zapełniając się menażerią odrealnionych treści: generowanymi przez SI animacjami, grafikami, zdjęciami, a nawet muzyką. Artyści używają aplikacji generatywnej SI, takich jak Adobe Firefly, do wyrażania swoich pomysłów i tworzenia prac komercyjnych. Jednak i ta sfera naszych branżowych działań nie pozostaje bez wyzwań. Niewłaściwe rozporządzanie generowanym przez sztuczną inteligencję materiałem może skutkować dalszym spadkiem zaufania do mediów, dezinformacją oraz ryzykiem prawnym wynikającym z wprowadzania do obiegu publicznego treści sztucznie wygenerowanych, bazujących na dziełach prawdziwych artystów. Graficy, animatorzy, malarze, kompozytorzy i inni zawodowi twórcy martwią się o naruszenia praw autorskich. Coraz częściej pojawiają się pytania o autorstwo postów w serwisach społecznościowych.

Wyzwaniom tym poświęca się w branży coraz więcej uwagi. Firma Adobe pracuje już nad uniwersalnym znacznikiem „Do Not  Train” (Nie trenować), który umożliwi twórcom wpływanie na to, czy modele SI mogą być trenowane na podstawie ich prac. W styczniu 2023 r. firma OpenAI uruchomiła swój wykrywacz tekstu sztucznie generowanego i rozpoczęła już prace nad obowiązkowym znakowaniem wodnym (tzw. watermarking) efektów pracy sztucznej inteligencji. W Brukseli toczą się prace nad unijnym „Aktem o sztucznej inteligencji”. Ma to być rodzaj rozporządzenia, którego zadaniem jest inspirować legislację w zakresie sztucznej inteligencji.

Branża PR zgodnie uważa, że sztuczna inteligencja jest jednym z najważniejszych trendów w obszarze komunikacji. Pomaga w tworzeniu chwytliwych sloganów, tworzeniu treści marketingowych, targetowaniu reklam, identyfikacji najlepszych influencerów dla marek, analizowaniu danych rynkowych, proponowaniu optymalnych strategii etc. Specjaliści i badacze są jednak zgodni, że kreatywność sztucznej inteligencji musi iść w parze z etyką, a wykorzystanie SI do tworzenia wartościowych treści wymaga odpowiedzialnego, podejścia.

Prawdziwy PR opiera się na krytycznym myśleniu i wrażliwości. Nie popadajmy w lenistwo. Używajmy nowych narzędzi sztucznej inteligencji z głową, krytycznie, gdyż tylko wtedy wykorzystamy je właściwie i zwiększymy swoją konkurencyjność na rynku. I nigdy nie zapominajmy o ludziach. To oni są i zawsze pozostaną rdzeniem naszej branży.

Jak powiedział Jean Valin Hon, Principal of Valin Strategic Communications:

„Niezależnie od zadań i umiejętności, które można zautomatyzować i zastąpić sztuczną inteligencją, zawsze potrzebna będzie interwencja człowieka, redagowanie, wrażliwość, inteligencja emocjonalna, stosowanie dobrego osądu i zasad etyki.”

Katarzyna Jarczewska
Partnerka i współwłaścicielka założonej w 1997 roku agencji reklamowej i PR, Media Forum. Ekspert ds. komunikacji, public relations, zarządzania sytuacjami kryzysowymi oraz strategii marketingowych przedsiębiorstw.