Mistral ett franskt AI-startup dumpar AI-modell som slår GPT-3.5 i en torrentlänk

Mistral AI

Mistral, ett franskt AI-startup som nyligen samlat in $415 miljoner i en serie A-finansieringsrunda, har presenterat sin senaste stora språkmodell, Mixtral-8x7B. Enligt tester överträffar Mixtral AI:s algoritm vissa av dess amerikanska konkurrenter, inklusive Meta’s Llama 2-familj och OpenAI’s GPT-3.5. Gränssnitten för att börja jobba med Mixtral är tillgängliga via deras API, som för närvarande är i beta.

Mixtral 8x7B använder en teknik som kallas ”blandning av experter”, en kombination av olika modeller som var och en specialiserar sig på en annan kategori av uppgifter. Bland de tidiga användarna av Mixtral 8x7B har man blivit imponerad av dess prestanda. Tack vare dess lilla fotavtryck kan det också köras lokalt på maskiner utan dedikerade GPU, inklusive Apple Mac-datorer med dess nya M2 Ultra CPU.

Men det är viktigt att notera att Mixtral kräver mycket mer RAM och GPU än Mistral 7B. Medan Mistral 7B fungerar bra på en 24GB RAM 1 GPU-instans, kräver Mixtral 64GB RAM och 2 GPU, vilket ökar kostnaden med en faktor 3 (1.3$/h kontra 4.5$/h).

Mistral AI visar vikten av innovation och konkurrens inom AI-området. Dess framgångar bevisar potentialen och kraften i öppen källkodsutveckling och dess betydelse för AI-industrin.

https://mistral.ai/news/mixtral-of-experts/

2 Comments

  1. […] Mixtral 8x7B har snabbt vunnit popularitet inom utvecklargemenskapen tack vare dess hastighet och prestanda. Det har visat sig överträffa andra LLMs som OpenAI:s GPT-3.5 och Anthropic’s Claude Instant i olika prestandatests. Dessutom erbjuder Mixtral 8x7B fördelar som förbättrad hantering av stora kontexter och multilingvistisk förståelse, inklusive förmågan att generera kod. […]

Leave a Reply

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *