Men heldigvis så er AI jo blevet Opensource siden Kina Deepseek udgav Deepseek.
Det kræver så bare enten at der bliver en “benevolent altruistic” host som også udvikler den, altså et reelt OpenAI, eller også at teknologisk udvikling gør at vi kan køre modellen lokalt på vores smartphone og computere.
Men heldigvis så er AI jo blevet Opensource siden
KinaDeepseek udgav Deepseek.Det kræver så bare enten at der bliver en “benevolent altruistic” host som også udvikler den, altså et reelt OpenAI, eller også at teknologisk udvikling gør at vi kan køre modellen lokalt på vores smartphone og computere.
Der er OLMo 🤓
Okay, altså 32 mb… det kan vel næsten ikke passe at det remotely kan konkurrere med ChatGPT?
32B, ikke 32 MB. Altså 32 milliarder parametre. Med 32-bit per parametre er det 128 GB.
Damn!!! Ikke så lidt
Så dens ydeevne er vel ~1 år bagud ift. de proprietære state-of-the-art modeller. Ikke ringe for en komplet åben model.
Kilde: https://allenai.org/blog/olmo2-32B
Det er helt vildt. Det giver altså håb