VMware lanserar startklar plattform för generativ AI

Nätverk Infrastruktur

Företag som vill använda generativa AI-modeller idag står inför vissa utmaningar. Datan behöver skickas upp till molnet, vilket både kan strida mot efterlevnadskrav och svida i plånboken. Nu kommer en lösning från VMware och Nvidia som gör det möjligt att köra generativa AI-applikationer i sin egen infrastruktur i sina datacenter, i edge eller i privata moln. 

Företag som använder generativ AI i dag har ett stort problem. Om de använder en kommersiell plattform som Open AI behöver de skicka data upp till molnet, vilket kan strida mot efterlevnadskrav och är dyrt.

Om de i stället laddar ner och kör en modell som Llama 2 lokalt behövs kunskap i hur man finjusterar den, hur man konfigurerar vektordatabaser för att mata den med live-data men även hur man operationaliserar den.

Integrerad lösning på alla problem

VMwares nya partnerskap med Nvidia erbjuder en lösning på allt detta. Tillsammans presenterar man en helt integrerad, startklar plattform för generativ AI som företag kan köra på plats, i colocation-anläggningar eller i privata moln.

Plattformen kommer att innehålla Llama 2 eller ett urval av andra stora språkmodeller, samt en vektordatabas för att mata in aktuell företagsinformation till LLM.

Produkten som kallas VMware Private AI Foundation with Nvidia, kommer att innehålla generativ AI-programvara och accelererad databehandling från Nvidia, och den kommer att byggas på VMware Cloud Foundation och optimeras för AI.

 

23 augusti 2023Uppdaterad 2 oktober 2023Reporter anne hammarskjöldAIFoto adobestock

Voisters nyhetsbrev

SENASTE NYTT

Stäng