en
ua
ru
de
pt
es
pl
fr
tr
fi
da
no
sv
en
EGW-NewsOthersGoogle odkrywa hakerów nadużywających sztucznej inteligencji Gemini
Google odkrywa hakerów nadużywających sztucznej inteligencji Gemini
69
0
0

Google odkrywa hakerów nadużywających sztucznej inteligencji Gemini

Google zidentyfikowało wiele sponsorowanych przez państwo grup hakerskich próbujących wykorzystać swoją platformę Gemini AI do złośliwych celów, w tym do pomocy w tworzeniu złośliwego oprogramowania. Gigant technologiczny donosi jednak, że wysiłki te nie doprowadziły do znaczących cyberzagrożeń, podkreślając, że sztuczna inteligencja pozostaje raczej narzędziem niż zmianą gry dla cyberprzestępców.

Chicken.gg
Free gems, plus daily, weekly, & monthly boosts!
Chicken.gg
CS:GO
Claim bonus
Rain.gg
3 FREE Cases & 5% Deposit Bonus
Rain.gg
CS:GO
Claim bonus
Clash GG
5% deposit bonus up to 100 gems
Clash GG
CS:GO
Claim bonus

Według ustaleń Google, hakerzy z Iranu, Korei Północnej, Chin i Rosji wykorzystali Gemini do zadań takich jak tłumaczenie treści, udoskonalanie ataków phishingowych i pisanie kodu komputerowego. Firma prześledziła tę aktywność do ponad 10 irańskich grup hakerskich, 20 chińskich grup wspieranych przez rząd i dziewięciu północnokoreańskich podmiotów stanowiących zagrożenie.

"Irańscy aktorzy APT (advanced persistent threat) byli największymi użytkownikami Gemini, wykorzystując go do badań nad organizacjami obronnymi, analizy luk w zabezpieczeniach i tworzenia treści do kampanii dezinformacyjnych" - zauważył Google w środowym poście na blogu.

Pomimo tych prób, Google utrzymuje, że Gemini zapewniło tym podmiotom przede wszystkim zwiększenie produktywności, a nie bezpośrednie możliwości hakowania. "Obecnie używają oni głównie sztucznej inteligencji do badań, rozwiązywania problemów z kodem oraz tworzenia i lokalizowania treści" - stwierdziła firma.

Google Uncovers Hackers Misusing Gemini AI 1

Źródło zdjęcia: Jaque Silva | NurPhoto

Google podkreśliło również ograniczenia, z jakimi borykali się hakerzy, próbując wykorzystać Gemini do bardziej zaawansowanych złośliwych zadań. Podczas gdy sztuczna inteligencja pomagała im w zrozumieniu złożonych tematów i generowaniu podstawowego kodu, jej zabezpieczenia uniemożliwiały niewłaściwe wykorzystanie cyberataków. Próby wykorzystania Gemini do zaawansowanych technik phishingu, kodowania złośliwego oprogramowania lub ominięcia środków bezpieczeństwa Google zakończyły się niepowodzeniem.

"Niektórzy złośliwi aktorzy bezskutecznie próbowali poprosić Gemini o wskazówki dotyczące nadużywania produktów Google, takich jak zaawansowane techniki phishingu dla Gmaila, pomoc w kodowaniu infostealera Chrome i metody ominięcia metod weryfikacji tworzenia konta Google" - poinformowała firma. "Próby te zakończyły się niepowodzeniem. Gemini nie stworzyło złośliwego oprogramowania ani innych treści, które mogłyby zostać wykorzystane w udanej złośliwej kampanii".

Google przyznał jednak, że narzędzia AI, takie jak Gemini, mogą przyspieszyć przepływy pracy cyberzagrożeń, pozwalając im działać wydajniej i na większą skalę. Na przykład irańska operacja propagandowa wykorzystała Gemini do ulepszenia tłumaczeń, zapewniając, że ich kampanie dezinformacyjne dotrą do szerszego grona odbiorców. W międzyczasie hakerzy powiązani z Koreą Północną polegali na chatbocie do sporządzania listów motywacyjnych i zbierania porad dotyczących poszukiwania pracy na LinkedIn - potencjalnie pomagając im w zabezpieczeniu zdalnych stanowisk IT w amerykańskich firmach, co budzi coraz większe obawy wśród federalnych śledczych.

"Grupa korzystała również z Gemini w celu uzyskania informacji o zagranicznych wymianach pracowników. Wiele z tych tematów byłoby typowych dla każdego, kto szuka i ubiega się o pracę" - zauważa Google.

Ustalenia Google są echem podobnych odkryć dokonanych przez OpenAI. Rok temu OpenAI wykryło wiele sponsorowanych przez państwo grup próbujących niewłaściwie wykorzystać ChatGPT. Dochodzenie ujawniło jednak, że hakerzy ci używali chatbota głównie do niewielkiego zwiększenia produktywności, a nie do przeprowadzania zaawansowanych cyberataków.

W odpowiedzi na te zagrożenia Google wzmocniło swoje protokoły bezpieczeństwa sztucznej inteligencji. Firma nieustannie testuje mechanizmy obronne Gemini, aby zapobiec nadużyciom i w razie potrzeby współpracuje z organami ścigania. "Badamy nadużycia naszych produktów, usług, użytkowników i platform, w tym złośliwe działania cybernetyczne ze strony wspieranych przez rząd podmiotów stanowiących zagrożenie, i w razie potrzeby współpracujemy z organami ścigania" - oświadczył Google.

Ponadto Google aktywnie pracuje nad zakłóceniem tych cyberzagrożeń, usuwając podejrzane złośliwe podmioty ze swoich platform. Ta proaktywna postawa podkreśla zaangażowanie firmy w zapewnienie bezpieczeństwa narzędzi sztucznej inteligencji, przy jednoczesnym uznaniu ewoluujących zagrożeń stwarzanych przez hakerów sponsorowanych przez państwo.

Zostaw swój komentarz
Podobał Ci się artykuł?
0
0

Komentarze

DO GÓRY
FREE SUBSCRIPTION ON EXCLUSIVE CONTENT
Receive a selection of the most important and up-to-date news in the industry.
*
*Only important news, no spam.
SUBSCRIBE
LATER
Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.
Spersonalizuj
OK