SorteKanin@feddit.dkM to Nyheder@feddit.dk · 6 days ago[Debat] Vi lod de sociale medier og big tech løbe løbsk. Nu er vi ved at begå samme fejl med AIwww.altinget.dkexternal-linkmessage-square15fedilinkarrow-up11arrow-down10
arrow-up11arrow-down1external-link[Debat] Vi lod de sociale medier og big tech løbe løbsk. Nu er vi ved at begå samme fejl med AIwww.altinget.dkSorteKanin@feddit.dkM to Nyheder@feddit.dk · 6 days agomessage-square15fedilink
minus-squarefarsinuce@feddit.dklinkfedilinkarrow-up0·4 days agoDer er OLMo 🤓 https://allenai.org/olmo https://www.forbes.com/sites/janakirammsv/2024/02/05/how-olmo-from-the-ai2-redefines-llm-innovation/
minus-squarealtialtiOSIBIL@feddit.dklinkfedilinkarrow-up0·4 days agoOkay, altså 32 mb… det kan vel næsten ikke passe at det remotely kan konkurrere med ChatGPT?
minus-squareSorteKanin@feddit.dkOPMlinkfedilinkarrow-up0·4 days ago32B, ikke 32 MB. Altså 32 milliarder parametre. Med 32-bit per parametre er det 128 GB.
minus-squarefarsinuce@feddit.dklinkfedilinkarrow-up0·4 days ago OLMo 2 32B is the first fully-open model to outperform GPT3.5-Turbo and GPT-4o mini on a suite of popular, multi-skill academic benchmarks. Så dens ydeevne er vel ~1 år bagud ift. de proprietære state-of-the-art modeller. Ikke ringe for en komplet åben model. Kilde: https://allenai.org/blog/olmo2-32B
minus-squarealtialtiOSIBIL@feddit.dklinkfedilinkarrow-up0·4 days agoDet er helt vildt. Det giver altså håb
Der er OLMo 🤓
Okay, altså 32 mb… det kan vel næsten ikke passe at det remotely kan konkurrere med ChatGPT?
32B, ikke 32 MB. Altså 32 milliarder parametre. Med 32-bit per parametre er det 128 GB.
Damn!!! Ikke så lidt
Så dens ydeevne er vel ~1 år bagud ift. de proprietære state-of-the-art modeller. Ikke ringe for en komplet åben model.
Kilde: https://allenai.org/blog/olmo2-32B
Det er helt vildt. Det giver altså håb