SorteKanin@feddit.dkM to Nyheder@feddit.dk · 6 days ago[Debat] Vi lod de sociale medier og big tech løbe løbsk. Nu er vi ved at begå samme fejl med AIwww.altinget.dkexternal-linkmessage-square15fedilinkarrow-up11arrow-down10
arrow-up11arrow-down1external-link[Debat] Vi lod de sociale medier og big tech løbe løbsk. Nu er vi ved at begå samme fejl med AIwww.altinget.dkSorteKanin@feddit.dkM to Nyheder@feddit.dk · 6 days agomessage-square15fedilink
minus-squarefarsinuce@feddit.dklinkfedilinkarrow-up0·4 days ago OLMo 2 32B is the first fully-open model to outperform GPT3.5-Turbo and GPT-4o mini on a suite of popular, multi-skill academic benchmarks. Så dens ydeevne er vel ~1 år bagud ift. de proprietære state-of-the-art modeller. Ikke ringe for en komplet åben model. Kilde: https://allenai.org/blog/olmo2-32B
minus-squarealtialtiOSIBIL@feddit.dklinkfedilinkarrow-up0·4 days agoDet er helt vildt. Det giver altså håb
Så dens ydeevne er vel ~1 år bagud ift. de proprietære state-of-the-art modeller. Ikke ringe for en komplet åben model.
Kilde: https://allenai.org/blog/olmo2-32B
Det er helt vildt. Det giver altså håb