SorteKanin@feddit.dkM to Nyheder@feddit.dk · 6 days ago[Debat] Vi lod de sociale medier og big tech løbe løbsk. Nu er vi ved at begå samme fejl med AIwww.altinget.dkexternal-linkmessage-square15fedilinkarrow-up11arrow-down10
arrow-up11arrow-down1external-link[Debat] Vi lod de sociale medier og big tech løbe løbsk. Nu er vi ved at begå samme fejl med AIwww.altinget.dkSorteKanin@feddit.dkM to Nyheder@feddit.dk · 6 days agomessage-square15fedilink
minus-squarealtialtiOSIBIL@feddit.dklinkfedilinkarrow-up0·4 days agoOkay, altså 32 mb… det kan vel næsten ikke passe at det remotely kan konkurrere med ChatGPT?
minus-squareSorteKanin@feddit.dkOPMlinkfedilinkarrow-up0·4 days ago32B, ikke 32 MB. Altså 32 milliarder parametre. Med 32-bit per parametre er det 128 GB.
minus-squarefarsinuce@feddit.dklinkfedilinkarrow-up0·4 days ago OLMo 2 32B is the first fully-open model to outperform GPT3.5-Turbo and GPT-4o mini on a suite of popular, multi-skill academic benchmarks. Så dens ydeevne er vel ~1 år bagud ift. de proprietære state-of-the-art modeller. Ikke ringe for en komplet åben model. Kilde: https://allenai.org/blog/olmo2-32B
minus-squarealtialtiOSIBIL@feddit.dklinkfedilinkarrow-up0·4 days agoDet er helt vildt. Det giver altså håb
Okay, altså 32 mb… det kan vel næsten ikke passe at det remotely kan konkurrere med ChatGPT?
32B, ikke 32 MB. Altså 32 milliarder parametre. Med 32-bit per parametre er det 128 GB.
Damn!!! Ikke så lidt
Så dens ydeevne er vel ~1 år bagud ift. de proprietære state-of-the-art modeller. Ikke ringe for en komplet åben model.
Kilde: https://allenai.org/blog/olmo2-32B
Det er helt vildt. Det giver altså håb