Microsoft har introducerat sin senaste version av den lätta AI-modellen kallad Phi-3 Mini. Denna modell är den första av tre mindre versioner som företaget kommer att släppa och skryter med 3, 8 miljarder parametrar. Den har tränats på en relativt mindre datamängd jämfört med större språkmodeller som GPT-4. Användare kan nu komma åt Phi-3 Mini på plattformar som Azure, Hugging Face och Ollama. Microsoft planerar att släppa två ytterligare versioner, Phi-3 Small (7B parametrar) och Phi-3 Medium (14B parametrar), där parametrar representerar modellens kapacitet att förstå komplexa instruktioner. I december släppte Microsoft Phi-2, som presterade lika bra som större modeller som Llama 2. Enligt Microsoft visar Phi-3 ännu bättre prestanda än sin föregångare och kan ge svar som liknar modeller tio gånger sin storlek. Eric Boyd, företags vice vd för Microsoft Azure AI-plattform, betonar att Phi-3 Mini erbjuder motsvarande förmågor som större modeller som GPT-3. 5 men i en mindre formfaktor. Jämfört med större modeller är mindre AI-modeller ofta mer kostnadseffektiva att använda och erbjuder bättre prestanda på personliga enheter som smartphones och bärbara datorer.
Tidigare i år rapporterades det att Microsoft höll på att sätta ihop ett team för att utveckla lättare AI-modeller. Utöver Phi har Microsoft skapat Orca-Math, en modell som fokuserar på att lösa matematiska problem. Andra teknikjättar erbjuder också sina egna små AI-modeller, många av dessa riktar sig mot enklare uppgifter som dokumentsummering eller kodassistans. Till exempel är Googles Gemma 2B och 7B idealiska för enkla chattbotar och språkrelaterat arbete, medan Anthropics Claude 3 Haiku utmärker sig på att läsa och summera tunga forskningsartiklar med diagram. Metas nyligen släppta Llama 3 8B kan användas för chattbotar och kodassistans. Boyd utvecklar utvecklingsprocessen och förklarar att utvecklare tränade Phi-3 med hjälp av ett "läroplan" inspirerad av hur barn lär sig genom godnattsagor och böcker med enklare språk och meningsstrukturer som behandlar bredare ämnen. Genom att utnyttja en omfattande lista över över 3 000 ord användes en LLM ("large language model") för att skapa "barnböcker" för att lära Phi. Ytterligare förklarar Boyd att Phi-3 bygger på kunskapen som erhållits från tidigare versioner. Medan Phi-1 fokuserade på kodning och Phi-2 började lära sig resonemang, utmärker sig Phi-3 både inom kodning och resonemang. Även om Phi-3-familjen har viss förståelse för allmän kunskap kan den inte matcha bredden hos en GPT-4 eller en annan stor språkmodell som tränats på hela internet.
None
Under de senaste åren har snabba framsteg inom artificiell intelligens (AI) förändrat många aspekter av det dagliga livet, inklusive hur nyheter produceras och konsumeras.
OpenAI har formellt uppmanat den amerikanska regeringen att utvidga CHIPS-lagens avancerade tillverkningsinvesteringskredit (AMIC) för att omfatta infrastruktur som stöder artificiell intelligens (AI), såsom servrar, datacenter och kraftsystem.
Direktförsäljning står vid en kritisk vändpunkt,” sade George Elfond, VD för Rallyware.
Den digitala marknadsföringslandskapet genomgår en djupgående omvandling drivet av den snabba utvecklingen och antagandet av AI-drivna verktyg för innehållsskapande som ChatGPT, ContentShake och Typeface.
Profound, ett innovativt teknikföretag som specialiserar sig på artificiell intelligens (AI) för sökoptimisering, har säkrat 20 miljoner dollar i Serie A-investeringar.
News Corp har publicerat sina ekonomiska resultat för det första kvartalet av räkenskapsåret 2026, med starka omsättningstal som belyser företagets pågående transformation och tillväxtstrategi.
Anthropic, en ledande AI-startup med bas i USA som grundades 2021 av tidigare OpenAI-anställda, har tillkännagett planer på att utöka sin närvaro i Europa genom att öppna nya kontor i Paris och München.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today