Zostańmy w kontakcie
Lofty Kościuszko
ul. Metalowców 13/108
Chorzów 41-500
kontakt@kaizenads.pl
+48 881228124

ChatGPT pozwalał na przeglądanie stron ukrytych za paywallem – czy narzędzia AI będą coraz bardziej niebezpieczne?

ChatGPT4 wprowadził bardzo interesującą opcję w wersji beta, czyli możliwość przeczesywania sieci przez AI, w celu znalezienia informacji. Jeżeli chcesz podłączyć swój ChatGPT do sieci… to niestety już za późno. Opcja ta została wyłączona w świetle skandalu z omijaniem treści ukrytych za paywallem.

Deweloperzy z OpenAI nie przewidzieli, że użytkownicy mogą wykazać się taką pomysłowością. Okazuje się jednak, że nieuczciwi internauci i hakerzy dostali do swoich rąk o wiele bardziej niebezpieczne narzędzia, czyli AI stworzone z myślą o hakerach. Czy jest się czego bać? Czy czekają nas cybernetyczne ataki na skalę krajową lub co gorsza globalną? Cyberprzestrzeń ewoluuje na naszych oczach (i ekranach).

ChatGPT nie poleci po sieci za informacjami – opcja „tymczasowo” wycofana

Paywall jest popularnym rozwiązaniem wśród portali informacyjnych lub serwisów z publicystyką. Płatna bariera ma na celu zachętę użytkowników do wykupienia subskrypcji, aby możliwe było czytanie artykułów o jakości premium. Takie paywalle stosowane są np. w wyborcza.biz, czy forbes.pl.

Niektórzy użytkownicy ChatuGPT4 postanowili użyć go do ominięcia takiej płatnej blokady. Wystarczyło włączyć opcję „browse with Bing” oraz poprosić ChatGPT o przekopiowanie treści artykułów ukrytych za paywallem. Sztuczna inteligencja kopiowała całą treść takich artykułów i podawała je użytkownikowi na wirtualnej tacy. Informacje o „kreatywnym” wykorzystaniu ChatuGPT pojawiły się na Reddicie i coraz większa ilość użytkowników zaczęła testować możliwości sztucznej inteligencji.

Sytuacja ta szybko została wyłapana przez OpenAI i opcja „browse with Bing” została wyłączona. Teoretycznie funkcja ma pojawić się zaraz po tym, jak twórcy naprawią błąd omijania paywalli. W praktyce jednak opcja przeglądania sieci pojawi się prawdopodobnie dopiero w ChacieGPT 5, którego premiera nadal pozostaje nieznana.

Narzędzia AI jako ultymatywny wytrych – rzeczywistość sci-fi coraz bliżej

Powyższy przykład pokazuje, że generatywna sztuczna inteligencja może być wykorzystywana nie tylko w twórczym celu. Co ciekawe, ChatGPT ma zaimplementowany szereg zabezpieczeń, które sprawiają, że odpowiada on na pytania według konkretnego wzoru zachowań. Mimo to, niektórym kreatywnym użytkownikom i tak udaje się nakłonić AI do robienia rzeczy niekoniecznie uczciwych.

Głośnym przykładem było wygenerowanie przez ChatGPT szeregu kluczy aktywacji do systemu Windows 95. Warto dodać, że miało to miejsce w kwietniu. Wystarczyły jednak tylko 3 miesiące więcej i ChatGPT był już w stanie wygenerować działające klucze do Windowsa 10 i 11. Wystarczyło tylko wpisać odpowiedni prompt, który oszuka sztuczną inteligencję, aby wykonała dane polecenie.

To pokazuje, że narzędzia AI mogą być bardzo niebezpieczne, jeżeli znajdą się w rękach osób mających w sobie odrobinę hakerskiego zmysłu Kevina Mitnicka. Nie trzeba było jednak długo czekać, aby okazało się, że hakerzy stworzyli generatywną sztuczną inteligencję, która nie ma żadnych ograniczeń. No i teraz zaczyna robić się ciekawie… i naprawdę niebezpiecznie.

WormGPT i FraudGPT, czyli złe bliźniaki sztucznej inteligencji od OpenAI

Wyobraź sobie, że masz pod ręką super inteligentnego asystenta, który jest w stanie wykonać dla Ciebie praktycznie każde zadanie w sieci. Nie ma on wbudowanych ograniczeń – po prostu wykonuje polecenia swojego użytkownika. Otóż hakerzy właśnie dostali takie narzędzie wprost do swoich rąk.

WormGPT pojawił się w połowie lipca 2023 i zelektryzował świat cyberbezpieczeństwa.

Narzędzie inspirowane ChatemGPT, ale nie posiada żadnych ograniczeń. Oznacza to, że WormGPT wykona każde polecenie swojego użytkownika. Zły brat bliźniak sztucznej inteligencji od OpenAI jest w stanie tworzyć phishingowe maile, zawierające w sobie złożone socjotechniki. Dzięki temu takie fałszywe maile będą jeszcze chętniej klikane przez ofiary niezdające sobie sprawy z zagrożenia.

Hakerzy korzystający z WormGPT będą w stanie tworzyć złośliwy kod i inne cybernetyczne zagrożenia o wiele szybciej i sprawniej. Sztuczną inteligencję bez ograniczeń można porównać do klucza otwierającego każde drzwi. Co więcej, nie minęły dwa tygodnie od informacji o WormGPT, a w sieci pojawiło się nowe i jeszcze mocniejsze zagrożenie.

FraudGPT także jest generatywną sztuczną inteligencją dla hakerów, ale jej funkcjonalność ma być jeszcze szersza. Według anonimowego twórcy, FraudGPT nie tylko tworzy złośliwy kod i maila phishingowe, ale także jest w stanie analizować strony internetowe, pod kątem bezpieczeństwa.

Ataki z WormGPT i FraudGPT mogą wywrócić świat cyberbezpieczeństwa do góry nogami. Eksperci od bezpieczeństwa w sieci muszą jak najszybciej stworzyć kontrę, czyli AI chroniące przed hakerskim AI. Tym oto sposobem wchodzimy w etap regularnej bitwy w cyberprzestrzeni, czyli czegoś, co dotychczas możliwe było tylko w uniwersach sci-fi pokroju cyberpunka.

W Kaizen Ads (カイゼンアッズ)
AI występuje nie tylko w naszej nazwie 🙂

Jeśli zastanawiasz się jak wdrożyć AI do swojego biznesu lub chcesz żebyśmy przeprowadzili dla Ciebie szkolenie z ChatGPT, Midjourney i innych narzędzi opartych o sztuczną inteligencję daj znać.

Wyślij wiadomość

kontakt@kaizenads.pl

Zadzwoń:

+48 881 228 124

Autor

Author avatar
Jeremiasz Krok
AI Specialist

Komentarz specjalisty

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *