Apple Wybiera TPU od Google do Swojej Sztucznej Inteligencji

lubiegrac news Apple Wybiera TPU od Google do Swojej Sztucznej Inteligencji
Apple Wybiera TPU od Google do Swojej Sztucznej Inteligencji



redaktor | 30 lipca 2024, 08:30

W najnowszym raporcie badawczym dotyczącym możliwości szkoleniowych sztucznej inteligencji dla iPhone'a i innych produktów, gigant technologiczny z Cupertino, Apple, zdaje się polegać na chipach Google'a, a nie na chipach lidera rynku, NVIDIA. Wzrost NVIDIA na szczycie rynku jest wynikiem dużego popytu na jej GPU, który podniósł przychody i zyski o trzykrotne wartości procentowe.

Wykorzystanie TPU od Google w Modelu AFM

W swoim raporcie Apple ujawnia, że jej model o 2,73 miliarda parametrów, Apple Foundation Model (AFM), korzysta z cloudowych klastrów TPU w wersjach v4 i v5p, które są zazwyczaj dostarczane przez Google z Alphabet Inc.

Raport badawczy Apple, opublikowany dzisiaj, opisuje infrastrukturę szkoleniową i inne szczegóły dotyczące modeli AI, które będą napędzać funkcje ogłoszone na WWDC na początku tego roku.

Apple ogłosiło zarówno przetwarzanie AI na urządzeniu, jak i w chmurze, a w sercu tych funkcji AI znajduje się model Apple Foundation, zwany AFM.

Szkolenie Modelu AFM

Dla AFM na serwerze, czyli modelu, który napędza funkcje AI w chmurze zwane Apple Cloud Compute, Apple ujawnia, że trenuje model AI o 6,3 bilionach tokenów „od podstaw” na „8192 chipach TPUv4”. Chipy TPUv4 Google’a są dostępne w podziałach składających się z 4096 chipów każdy.

Apple dodało, że modele AFM (zarówno na urządzeniu, jak i w chmurze) są trenowane na chipach TPUv4 i klastrach TPUv5p. v5p jest częścią Google Cloud AI 'Hypercomputer', ogłoszonego w grudniu ubiegłego roku.

Przeczytaj także:

 

Każdy pod v5p składa się z 8960 chipów, a według Google’a oferuje dwukrotnie większą liczbę operacji zmiennoprzecinkowych na sekundę (FLOPS) i trzykrotnie więcej pamięci w porównaniu do TPU v4, co pozwala na trenowanie modeli prawie trzy razy szybciej.

Model AFM na Urządzeniu

Dla modelu AI na urządzeniu, obejmującego funkcje takie jak pisanie i wybór obrazów, Apple używa modelu o 6,4 miliarda parametrów, który jest „trenowany od podstaw przy użyciu tej samej receptury co AFM-server”. Apple zdecydowało się również na starsze chipy TPU v4 dla modelu serwera AFM. Jak wspomniano powyżej, użyto 8092 chipów TPU v4, ale dla modelu AFM na urządzeniu firma zdecydowała się na nowsze chipy. Model ten, według Apple, był trenowany na 2048 chipach TPU v5p.

Ocena i Wydajność Modelu

Inne szczegóły podane w raporcie obejmują ocenę modelu pod kątem szkodliwych odpowiedzi, wrażliwych tematów, poprawności faktograficznej, wydajności matematycznej i zadowolenia ludzi z wyników modelu. Według Apple, modele AFM dla serwera i urządzenia przewyższają swoich branżowych odpowiedników pod względem tłumienia szkodliwych wyników.

Na przykład, AFM server, w porównaniu z GPT-4 od OpenAI, miał wskaźnik naruszenia szkodliwych treści wynoszący 6,3%, co jest znacznie niższe niż 28,8% GPT-4. Podobnie, wskaźnik naruszenia AFM na urządzeniu wynoszący 7,5% był niższy niż 21,8% Llama-3-8B (trenowanego przez Meta, właściciela Facebooka).

Dla podsumowywania e-maili, wiadomości i powiadomień, AFM na urządzeniu osiągnęło wskaźniki zadowolenia odpowiednio 71,3%, 63% i 74,9%. Raport badawczy ujawnia, że te wyniki przewyższają modele Llama, Gemma i Phi-3.

Śledź nas na google news - Obserwuj to, co ważne w świecie gier!

Tagi: Apple,
Komentarze [0]:
Copyright © lubiegrac.pl.

Wszelkie Prawa Zastrzeżone.

Używamy informacji zapisanych za pomocą cookies i podobnych technologii m.in. w celach reklamowych i statystycznych oraz w celu dostosowania naszych serwisów do indywidualnych potrzeb użytkowników.

Korzystanie z serwisu oznacza akceptację regulaminu
Lubiegrac.pl

reklama

redakcja

regulamin

rss

SocialMedia

Partners