Mac OS 13.1 och IOS/Ipad OS 16.2 kommer innehålla optimeringar av den populära ai-bildskaparalgoritmen Stable Diffusion, avslöjar Apple i ett blogginlägg.

Stable Diffusion släpptes i augusti och är till skillnad från Dall-e och Dall-e 2 öppen källkod som vem som helst kan köra. Flera webbplatser har anammat tekniken, men Apple vill att den ska kunna köras direkt på användarnas enheter istället. Det är billigare och skyddar användarnas integritet.

För att utnyttja optimeringarna och köras på Neural Engine-kretsarna i de olika M-chippen måste algoritmen användas på data i Apples Core ML-format. Apple har släppt både Python-kod för att konvertera modeller från Pytorch till Core ML och Swift-kod för att köra algoritmen.

Med hjälp av optimeringarna kan en Macbook Pro med M2 skapa en bild med 50 Stable Diffusion-iterationer på 18 sekunder, och en Ipad Pro med M1 gör samma sak på 29 sekunder. Siffror för M1 Pro/Max/Ultra har inte publicerats, men eftersom Pro och Max har samma antal kärnor i Neural Engine som M1 lär prestandan vara ungefär densamma. M1 Ultra har dubbelt så många kärnor så den bör vara snabbare.

Vill du testa redan nu kan du kika på Apples exempelkod – och förmodligen konstatera att det är bäst att vänta på att de första apparna med Stable Diffusion dyker när systemuppdateringarna har släppts.