
W najnowszym raporcie badawczym dotyczÄ…cym możliwoÅ›ci szkoleniowych sztucznej inteligencji dla iPhone'a i innych produktów, gigant technologiczny z Cupertino, Apple, zdaje siÄ™ polegać na chipach Google'a, a nie na chipach lidera rynku, NVIDIA. Wzrost NVIDIA na szczycie rynku jest wynikiem dużego popytu na jej GPU, który podniósÅ‚ przychody i zyski o trzykrotne wartoÅ›ci procentowe.
W swoim raporcie Apple ujawnia, że jej model o 2,73 miliarda parametrów, Apple Foundation Model (AFM), korzysta z cloudowych klastrów TPU w wersjach v4 i v5p, które sÄ… zazwyczaj dostarczane przez Google z Alphabet Inc.
Raport badawczy Apple, opublikowany dzisiaj, opisuje infrastrukturÄ™ szkoleniowÄ… i inne szczegóÅ‚y dotyczÄ…ce modeli AI, które bÄ™dÄ… napÄ™dzać funkcje ogÅ‚oszone na WWDC na poczÄ…tku tego roku.
Apple ogÅ‚osiÅ‚o zarówno przetwarzanie AI na urzÄ…dzeniu, jak i w chmurze, a w sercu tych funkcji AI znajduje siÄ™ model Apple Foundation, zwany AFM.
Dla AFM na serwerze, czyli modelu, który napÄ™dza funkcje AI w chmurze zwane Apple Cloud Compute, Apple ujawnia, że trenuje model AI o 6,3 bilionach tokenów „od podstaw” na „8192 chipach TPUv4”. Chipy TPUv4 Google’a sÄ… dostÄ™pne w podziaÅ‚ach skÅ‚adajÄ…cych siÄ™ z 4096 chipów każdy.
Apple dodaÅ‚o, że modele AFM (zarówno na urzÄ…dzeniu, jak i w chmurze) sÄ… trenowane na chipach TPUv4 i klastrach TPUv5p. v5p jest częściÄ… Google Cloud AI 'Hypercomputer', ogÅ‚oszonego w grudniu ubiegÅ‚ego roku.
Przeczytaj także:
Każdy pod v5p skÅ‚ada siÄ™ z 8960 chipów, a wedÅ‚ug Google’a oferuje dwukrotnie wiÄ™kszÄ… liczbÄ™ operacji zmiennoprzecinkowych na sekundÄ™ (FLOPS) i trzykrotnie wiÄ™cej pamiÄ™ci w porównaniu do TPU v4, co pozwala na trenowanie modeli prawie trzy razy szybciej.
Dla modelu AI na urzÄ…dzeniu, obejmujÄ…cego funkcje takie jak pisanie i wybór obrazów, Apple używa modelu o 6,4 miliarda parametrów, który jest „trenowany od podstaw przy użyciu tej samej receptury co AFM-server”. Apple zdecydowaÅ‚o siÄ™ również na starsze chipy TPU v4 dla modelu serwera AFM. Jak wspomniano powyżej, użyto 8092 chipów TPU v4, ale dla modelu AFM na urzÄ…dzeniu firma zdecydowaÅ‚a siÄ™ na nowsze chipy. Model ten, wedÅ‚ug Apple, byÅ‚ trenowany na 2048 chipach TPU v5p.
Inne szczegóÅ‚y podane w raporcie obejmujÄ… ocenÄ™ modelu pod kÄ…tem szkodliwych odpowiedzi, wrażliwych tematów, poprawnoÅ›ci faktograficznej, wydajnoÅ›ci matematycznej i zadowolenia ludzi z wyników modelu. WedÅ‚ug Apple, modele AFM dla serwera i urzÄ…dzenia przewyższajÄ… swoich branżowych odpowiedników pod wzglÄ™dem tÅ‚umienia szkodliwych wyników.
Na przykÅ‚ad, AFM server, w porównaniu z GPT-4 od OpenAI, miaÅ‚ wskaźnik naruszenia szkodliwych treÅ›ci wynoszÄ…cy 6,3%, co jest znacznie niższe niż 28,8% GPT-4. Podobnie, wskaźnik naruszenia AFM na urzÄ…dzeniu wynoszÄ…cy 7,5% byÅ‚ niższy niż 21,8% Llama-3-8B (trenowanego przez Meta, wÅ‚aÅ›ciciela Facebooka).
Dla podsumowywania e-maili, wiadomości i powiadomień, AFM na urządzeniu osiągnęło wskaźniki zadowolenia odpowiednio 71,3%, 63% i 74,9%. Raport badawczy ujawnia, że te wyniki przewyższają modele Llama, Gemma i Phi-3.
Śledź nas na google news - Obserwuj to, co ważne w świecie gier!
Wszelkie Prawa Zastrzeżone.
Używamy informacji zapisanych za pomocą cookies i podobnych technologii m.in. w celach reklamowych i statystycznych oraz w celu dostosowania naszych serwisów do indywidualnych potrzeb użytkowników.
Korzystanie z serwisu oznacza akceptację regulaminu