Meta planuje ogromną ekspansję AI z 1,3 milionami procesorów graficznych i rekordowo dużym centrum danych
Wyścig o dominację w dziedzinie AI nabiera tempa, a Meta podejmuje śmiałe kroki, aby utrzymać przewagę. Dyrektor generalny Mark Zuckerberg ogłosił, że firma planuje zakończyć 2024 r. z ponad 1,3 miliona procesorów graficznych – ponad dwukrotnie więcej niż jej obecny zapas procesorów graficznych dla przedsiębiorstw. Ta ekspansja ma na celu przyspieszenie rozwoju możliwości AI Meta, w tym nadchodzącego modelu Llama 4, który będzie rywalizował z ChatGPT firmy OpenAI i Gemini firmy Google.
Źródło zdjęcia: David Paul Morris | Bloomberg za pośrednictwem Getty Images
Ambitne cele Meta obejmują zasilanie asystentów AI dla ponad miliarda użytkowników i stworzenie „inżyniera AI” zdolnego do bezpośredniego wkładu w prace badawczo-rozwojowe. Aby wesprzeć te inicjatywy, Zuckerberg ujawnił plany zbudowania ogromnego centrum danych zdolnego pomieścić 1 gigawat mocy obliczeniowej do końca roku, z ostateczną pojemnością przekraczającą 2 gigawaty – niespotykana skala w obliczeniach AI. Oczekuje się, że obiekt obejmie obszar porównywalny ze znaczną częścią Manhattanu i będzie częścią inwestycji kapitałowej o wartości 65 miliardów dolarów w 2025 roku.
Ten ruch następuje w obliczu zaciętej konkurencji. Superkomputer AI Elona Muska z siedzibą w Memphis ma na celu 1 milion GPU, podczas gdy projekt Stargate Sama Altmana o wartości 500 miliardów dolarów ma na celu budowę centrów danych dedykowanych AI w USA. Microsoft przeznaczył również 80 miliardów dolarów na infrastrukturę obsługującą AI, w tym ponowne uruchomienie obiektu jądrowego w celu zaspokojenia zapotrzebowania na energię.
Ponieważ zapotrzebowanie na energię dla centrów danych AI gwałtownie rośnie, a niektóre prognozy sięgają 5 gigawatów, wyścig obliczeniowy AI nie wykazuje oznak spowolnienia. Inwestycje Meta podkreślają jej zaangażowanie w przewodzenie kolejnej generacji innowacji technologicznych.
Llama, czyli Large Language Model Meta AI, to seria autoregresyjnych modeli językowych opracowanych przez Meta AI, po raz pierwszy uruchomionych w lutym 2023 r. Pierwotny model Llama był dostępny tylko jako model podstawowy, z wagami ograniczonymi do organizacji akademickich i badawczych na podstawie licencji niekomercyjnej. Pomimo ścisłego dostępu wagi modelu wyciekły online wkrótce po jego wydaniu, wywołując debaty na temat dostępności i niewłaściwego wykorzystania w rozwoju AI.
Llama 2, wprowadzona w lipcu 2023 r., stanowiła punkt zwrotny, ponieważ obejmowała dopracowane modele czatu i rozszerzała zakres licencji, aby umożliwić określone zastosowania komercyjne. Poprawiła również wydajność, trenując na 40% większej ilości danych niż jej poprzedniczka. W sierpniu 2023 r. Meta wydała Code Llama, wariant specjalnie zaprojektowany do zadań kodowania, co pokazuje wszechstronność platformy.
Llama 3, zaprezentowana w kwietniu 2024 r., przesunęła granice jeszcze dalej dzięki możliwościom wielojęzycznym i multimodalnym, ulepszonemu rozumowaniu i rozszerzonym oknom kontekstowym. Jej największy model, z 70 miliardami parametrów, został wstępnie wytrenowany na 15 bilionach tokenów, przewyższając konkurentów, takich jak Gemini Pro 1.5, w kluczowych testach porównawczych. Do lipca 2024 r. Llama 3.1 wprowadziła przełomową wersję z 405 miliardami parametrów, co jeszcze bardziej ugruntowało pozycję Meta w krajobrazie AI.
Na przestrzeni lat Llama przyczyniała się do rozwoju wirtualnych asystentów i narzędzi kodowania Meta, a jednocześnie napędzała innowacje w wielojęzycznych i multimodalnych systemach sztucznej inteligencji.
Komentarze