Apple påstår att dess senaste AI-modell ReALM är ännu bättre än GPT4

Den nya modellen, ReALM, gör det möjligt för Siri att bearbeta kommandon mer effektivt genom att förstå tvetydiga språk och icke-konversationsmeddelanden.

ReALM överträffar enligt uppgift större AI-modeller som GPT-4 i effektivitet, särskilt lämpade för operationer på enheten genom att omvandla bilder till text.

Apple planerar att avslöja sin omfattande AI-strategi vid WWDC 2024, med tonvikt på AI-drivna funktioner i hela dess produktekosystem.

Apple har verkligen hävdat att deras senaste AI-modell ReALM är överlägsen OpenAI:s GPT-4. Enligt Apple ska ReALM kunna överträffa GPT-4 på flera viktiga mätetal trots att den är mindre och snabbare än GPT-4. Det finns flera källor som bekräftar detta påstående. Enligt en artikel på MSN Money har Apple släppt en ny artificiell intelligensmodell som överträffar GPT-4 när det gäller att analysera kontextuell data.

Dessutom visar Apples senaste AI-forskning att ReALM är mindre och snabbare än GPT-4 när det gäller att analysera kontextuell data. Genom att använda ReALM kan användare förvänta sig en snabbare och effektivare interaktion med Siri och andra AI-drivna tjänster.

Vidare har forskarna hos Apple påvisat att ReALM kan prestera bättre än GPT-4 när det gäller att hantera kontextuell data, vilket är en betydande utveckling inom företagets AI-initiativ. Denna prestandaförbättring möjliggör en högre precision och effektivitet när det gäller bearbetning av språklig information.

Vilka specifika uppgifter klarar ReALM bättre än GPT-4?

ReALM-modellen från Apple har visat sig vara överlägsen jämfört med OpenAI:s GPT-4 på flera områden. Enligt Apples forskning klarar ReALM av att utföra vissa uppgifter bättre än GPT-4. Specifikt har det observerats att de mindre ReALM-modellerna presterade likvärdigt med GPT-4, fast med färre parametrar, vilket gör dem lämpligare för användning på enheten. Genom att öka antalet parametrar i ReALM kunde modellen betydligt överträffa GPT-4.