
Microsoft ujawnia hakerów odpowiedzialnych za ataki na sztuczną inteligencję
Firma Microsoft Corp. poinformowała, że zidentyfikowała hakerów działających w USA i za granicą, którzy ominęli zabezpieczenia narzędzi do generowania sztucznej inteligencji – w tym usług Azure OpenAI firmy – w celu generowania szkodliwych treści, w tym niechcianych intymnych zdjęć celebrytów i innych treści o charakterze seksualnym.
Hakerzy wykradli dane logowania klientów z publicznych źródeł i wykorzystali je do uzyskania dostępu do generatywnych usług AI, w tym Azure OpenAI, produktu w chmurze firmy Microsoft, który pozwala klientom korzystać z modeli OpenAI, zgodnie z informacjami firmy. Następnie hakerzy zmienili możliwości produktów AI i sprzedali dostęp innym złośliwym grupom, dostarczając im instrukcje dotyczące tworzenia szkodliwych treści.

Hakerzy zidentyfikowani przez Microsoft mają siedzibę w Iranie, Wielkiej Brytanii, Hongkongu i Wietnamie. Są rzekomo częścią globalnej sieci cyberprzestępczości, którą Microsoft nazywa Storm-2139. Dwóch innych członków znajduje się na Florydzie i w Illinois, ale Microsoft powiedział, że nie ujawnia ich nazwisk, aby uniknąć utrudniania śledztw karnych. Producent oprogramowania powiedział, że przygotowuje zgłoszenia karne do organów ścigania w USA i za granicą.
Działanie to następuje, gdy rosnąca popularność narzędzi generatywnej sztucznej inteligencji wzbudza obawy o ich niewłaściwe wykorzystanie do generowania fałszywych nielegalnych wizerunków osób publicznych i zwykłych osób, a także do tworzenia materiałów o wykorzystywaniu seksualnym dzieci. Firmy takie jak Microsoft i OpenAI zakazują takiego zachowania i podejmują kroki technologiczne, aby je zablokować, ale złośliwe grupy nadal mogą próbować uzyskać nieautoryzowany dostęp.
„Bardzo poważnie podchodzimy do kwestii niewłaściwego wykorzystania sztucznej inteligencji, zdając sobie sprawę z poważnych i długotrwałych skutków, jakie dla ofiar mają obrazy o charakterze obraźliwym”
Steven Masada, zastępca głównego doradcy prawnego w jednostce ds. przestępstw cyfrowych w firmie Microsoft, poinformował o tym w czwartek na blogu.
„Microsoft nadal zobowiązuje się do ochrony użytkowników poprzez wdrażanie solidnych środków bezpieczeństwa AI w naszych platformach i zabezpieczanie naszych usług przed nielegalnymi i szkodliwymi treściami”.
Jak napisał Masada na swoim blogu, oświadczenie Microsoftu jest następstwem pozwu, jaki firma złożyła w grudniu w Wschodnim Dystrykcie Wirginii przeciwko 10 „Johnom Doesom”, usiłując w ten sposób zebrać więcej informacji o grupie hakerów i zakłócić jej działalność.
Sąd wydał orzeczenia pozwalające Microsoftowi na przejęcie kluczowej witryny, z której korzystali hakerzy. To, a także odtajnienie aktów prawnych w zeszłym miesiącu, wywołało panikę wśród grupy hakerów i spowodowało, że niektórzy członkowie zaczęli na siebie wskazywać palcami, co Microsoft był w stanie zaobserwować, aby zidentyfikować niektórych członków, powiedziała firma.
Microsoft nie podał nazwisk znanych osób, których to dotknęło.
Komentarze