Apple podpisało dobrowolne zobowiązanie Białego Domu dotyczące rozwoju bezpiecznej i godnej zaufania sztucznej inteligencji

lubiegrac news Apple podpisało dobrowolne zobowiązanie Białego Domu
Apple podpisało dobrowolne zobowiązanie Białego Domu dotyczące rozwoju bezpiecznej i godnej zaufania sztucznej inteligencji



redaktor | 27 lipca 2024, 16:00

Według przesłania prasowego z piątku, Apple wkrótce wprowadzi swoją ofertę generatywnej sztucznej inteligencji, Apple Intelligence, do swoich podstawowych produktów, co oznacza, że generatywna AI będzie dostępna dla 2 miliardów użytkowników Apple.

Warto przeczytać: The Boys dostanie prequel

Apple dołącza do 15 innych firm technologicznych — w tym Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI — które zobowiązały się do zasad wyznaczonych przez Biały Dom dla rozwoju generatywnej AI w lipcu 2023 roku. Wówczas Apple nie ujawniło, jak głęboko planuje wprowadzić AI do iOS. Jednak podczas WWDC w czerwcu, Apple jasno dało do zrozumienia, że stawia na generatywną AI, rozpoczynając współpracę, która integruje ChatGPT z iPhone'em. Jako częsty cel federalnych regulatorów, Apple chce zasygnalizować, że jest gotowe stosować się do zasad Białego Domu dotyczących AI — co może być próbą zdobycia przychylności przed ewentualnymi przyszłymi regulacyjnymi starciami w zakresie AI.

Jakie znaczenie mają dobrowolne zobowiązania Apple wobec Białego Domu? Na razie niewielkie, ale to dobry początek. Biały Dom nazywa to "pierwszym krokiem" w kierunku rozwoju AI, która jest bezpieczna, zabezpieczona i godna zaufania. Drugim krokiem było zarządzenie prezydenta Bidena dotyczące AI z października, a obecnie w federalnych i stanowych legislaturach toczy się kilka projektów ustaw mających na celu lepszą regulację modeli AI.

Pod zobowiązaniem

Firmy zajmujące się AI zobowiązały się do przeprowadzania testów bezpieczeństwa AI przed publiczną premierą i dzielenia się tymi informacjami z opinią publiczną. Dobrowolne zobowiązanie Białego Domu wymaga również, aby firmy zajmujące się AI traktowały nieopublikowane wagi modeli AI jako poufne. Apple i inne firmy zgadzają się pracować nad wagami modeli AI w bezpiecznych środowiskach, ograniczając dostęp do wag modeli do jak najmniejszej liczby pracowników. Na koniec, firmy zajmujące się AI zgadzają się na rozwijanie systemów oznaczania treści, takich jak znak wodny, aby pomóc użytkownikom odróżnić treści generowane przez AI od tych niegenerowanych.

Przeczytaj także:

 

Raport Departamentu Handlu i regulacje AI

Osobno, Departament Handlu zapowiedział wydanie raportu dotyczącego potencjalnych korzyści, ryzyk i implikacji związanych z modelami bazowymi open-source. Open-source AI staje się coraz bardziej kontrowersyjnym polem regulacyjnym. Niektóre grupy chcą ograniczyć dostępność wag modeli do potężnych modeli AI w imię bezpieczeństwa. Jednak takie działanie może znacznie ograniczyć ekosystem startupów i badań AI. Stanowisko Białego Domu w tej sprawie może mieć istotny wpływ na całą branżę AI.

Biały Dom zauważył również, że agencje federalne poczyniły znaczne postępy w realizacji zadań określonych w październikowym zarządzeniu. Agencje federalne zatrudniły do tej pory ponad 200 pracowników zajmujących się AI, przyznały dostęp do zasobów obliczeniowych ponad 80 zespołom badawczym i opublikowały kilka ram dotyczących rozwoju AI (rząd uwielbia ramy).

Śledź nas na google news - Obserwuj to, co ważne w świecie gier!

Tagi: AI, Apple,
Komentarze [0]:
Copyright © lubiegrac.pl.

Wszelkie Prawa Zastrzeżone.

Używamy informacji zapisanych za pomocą cookies i podobnych technologii m.in. w celach reklamowych i statystycznych oraz w celu dostosowania naszych serwisów do indywidualnych potrzeb użytkowników.

Korzystanie z serwisu oznacza akceptację regulaminu
Lubiegrac.pl

reklama

redakcja

regulamin

rss

SocialMedia

Partners