Reklama 3 tysiące złotych na miesiąc.
Czy sztuczna inteligencja będzie świetnym narzędziem do tworzenia propagandy? Były doradca Donalda Trumpa, który sympatyzuje z wielkimi korporacjami, chce stworzyć narzędzie, które będzie cenzurować badania.
Sztuczna inteligencja jest coraz bardziej obecna w życiu niemal każdego z nas. Zastosowanie znajduje w wielu dziedzinach, pomaga także w szerzeniu propagandy. Spacjalne modele językowe mają cenzurować m.in. badania epidemiologiczne. Jak podaje The Guardian, Louis Anthony 'Tony' Cox Jr, były doradca Trumpa, pracuje nad modelem językowym, który ma cenzurować badania epidemiologiczne. Narzędzie ma identyfikować „błędne użycie korelacji jako przyczynowości”. Krytycy Coxa ostrzegają, że może być ono używane do podważania zdroworozsądkowych badań naukowych i opóźniania regulacji prawnych.
Cox sympatyzuje z największymi trucicielami planety i współpracował z korporacjami takimi jak Philip Morris USA czy American Chemistry Council. Znany jest z głoszenia twierdzeń jakoby zanieczyszczenie powietrza nie miało związku z problemami zdrowotnymi, a na to, że PM2.5 (drobny pył zawieszony) powoduje raka płuc “nie ma pewnych dowodów”. Pojawiają się dowody na to, że były doradca Trumpa ma na tyle silne powiązania z American Petroleum Institute i pozwalał edytować swoje badania, aby wpisywały się w korporacyjną doktrynę.
Ideologiczna wątpliwość i opóźnianie procesu legislacji
W 2023 r. Cox próbował forsować swoje kontrowersyjne i niepoparte dodowodami naukowymi teorie w rozmowie z twórcami ChatGPT. Gdy ci nie wyrazili zainteresowania jego sugestiami, zwrócił swoją uwagę do niezastąpionego w materii propagandy przemysłu petrochemicznego. To wtedy wyszedł z propozycją stworzenia nowej aplikacji, która bazowałaby na sztucznej inteligencji i unikałaby niewygodnych faktów. W miejsce badań naukowych podsuwane mają być odpowiedzi, które mogą spodobać się niejednej nieetycznej korporacji.

AI-washing
Cox planuje, by aplikacja przekazywała użytkownikom informacje zgodne z interesami przemysłu. Jego wcześniejsze badania, sponsorowane przez przemysł chemiczny, będą podstawą do trenowania modelu.
Jak podaje portal Futuris, model językowy będzie się szkolił na badaniach sponsorowanych przez przemysł chemiczny. Jak ostrzega Itai Vardi z Energy and Policy Institute, działania, które można nazwać "AI-washingiem" mogą podważać zaufanie publiczne do nauki. Co może przełożyć się na szerzenie dezinformacji oraz polaryzować społeczeństwa. Eksperci zaś porównują działania Coxa do greenwashingu, czyli przedstawiania produktów czy działań jako ekologicznych, choć w rzeczywistości nie mają nic wspólnego z ochroną naszej planety.
Sztuczna inteligencja nie należy do "czystej" technologii
Sztuczna inteligencja, choć przedstawiana jako narzędzie przyszłości, sama generuje poważne koszty środowiskowe. Centra danych zasilające systemy AI zużywają ogromne ilości energii, które często pochodzą z elektrowni węglowych. To m.in. przekłada się na wzrost emisji gazów cieplarnianych i zanieczyszczeń powietrza. Badania wskazują, że w regionach sąsiadujących z takimi instalacjami odnotowuje się wyższe wskaźniki zachorowań na raka i astmę, co podważa narrację o „czystej” technologii. Jeśli aplikacja Coxa trafi do powszechnego użytku, może stać się częścią szerszej fali narzędzi AI, które w sposób niewidoczny, lecz znaczący, wpływają zarówno na środowisko, jak i zdrowie publiczne.