Apple AI køres på Google Chips

Apple AI
På trods af Nvidias dominerende position inden for AI ser det ud til at Apple er gået helt uden om dem når de træner deres Apple Foundation Model.

I et nyt forskningspapir, der beskriver sine AI-træningskapaciteter for iPhone og andre produkter, ser det ud til, at teknologigiganten Apple har valgt at stole på Googles chips frem for markedslederen NVIDIA's. I papiret deler Apple, at dens 2,73 milliarder parametre Apple Foundation Model (AFM) benytter v4 og v5p tensor processing unit (TPU) cloud-klynger leveret af Alphabet Inc.'s Google.

Apple afslører, at det træner en 6,3 billion token AI-model "fra bunden" på "8192 TPUv4 chips". For on-device AI-modeller, der bruges til funktioner som skrivning og billedvalg, benytter Apple en model på 6,4 milliarder parametre, trænet på 2048 TPU v5p chips.

APPLE-AI-FEATURES-GOOGLE-TPU-MODEL-1920x1243.png

Andre detaljer i papiret inkluderer evaluering af modellen for skadelige svar, følsomme emner, faktuel korrekthed, matematisk ydeevne og menneskelig tilfredshed med modellens output. Ifølge Apple fører AFM-server og on-device-modeller branchen i undertrykkelse af skadelige outputs.

For eksempel havde AFM-serveren en skadelig outputovertrædelsesrate på 6,3% sammenlignet med OpenAI's GPT-4, som havde en rate på 28,8%. Tilsvarende havde on-device AFM en overtrædelsesrate på 7,5% sammenlignet med Llama-3-8B's score på 21,8%.

For opsummering af e-mails, beskeder og notifikationer havde on-device AFM en tilfredshedsprocent på henholdsvis 71,3%, 63% og 74,9%. Forskningspapiret delte, at disse ledede over Llama-, Gemma- og Phi-3-modellerne.

Vores partnere