Groqs AI-snelheidsrecord verbroken door Cerebras!
Paul Grieselhuber
In de wereld van AI is snelheid belangrijk. Net zoals de paardenkracht van een auto bepaalt hoe snel hij kan gaan, geeft de snelheid van een AI-model aan hoe snel het informatie kan verwerken en jou antwoorden kan geven. In 2023 vestigde AI-hardwarebedrijf Groq een opmerkelijk snelheidsrecord door meer dan 300 tokens per seconde te halen met Meta's Llama-2 70B model.
Dit record was groot nieuws omdat het betekende dat de technologie van Groq AI-toepassingen kon helpen om vragen sneller te beantwoorden, meer gebruikers tegelijk te verwerken en realtime ervaringen, zoals directe vertalingen of chatbots voor klantenservice, soepeler te laten verlopen.
Waarom is het snelheidsrecord belangrijk?
Voor iedereen die AI-platforms gebruikt, heeft de reactiesnelheid een directe invloed op de kwaliteit van de ervaring. Hogere snelheden betekenen dat een AI-systeem sneller kan denken, complexere taken in realtime kan afhandelen en veel mensen tegelijk van dienst kan zijn zonder achter te lopen. Voor bedrijven kan snellere AI de klantervaring verbeteren, taken stroomlijnen en zelfs nieuwe toepassingen voor AI ontsluiten die tragere modellen niet aankunnen.
Hoe verhouden de snelheden van Groq zich tot die van ChatGPT?
Toen Groq 300 tokens per seconde bereikte met Llama-2 70B, was dat een grote sprong voorwaarts ten opzichte van veel populaire platforms, waaronder ChatGPT. ChatGPT is ontworpen voor algemene conversaties en geeft antwoorden met een indrukwekkende snelheid, maar de hardware van Groq is specifiek geoptimaliseerd om de snelheid voor grote, complexe AI-taken te maximaliseren. De opzet van Groq maakte het mogelijk voor AI-modellen om sneller te werken dan wat er momenteel beschikbaar is via de standaardsnelheden van ChatGPT, die niet gemaakt zijn voor het vestigen van snelheidsrecords.
De laatste recordhouder
Groq's prestatie in 2023 legde de lat hoog, maar het duurde niet lang voordat anderen het overtroffen. In oktober 2024 claimde een bedrijf genaamd Cerebras Systems het nieuwe record door een verbazingwekkende 2.100 tokens per seconde te bereiken met Meta's nieuwere Llama 3.2 70B model. Cerebras bereikte deze doorbraak met hun Wafer-Scale Engine, een uniek stuk hardware dat gebouwd is om snelheid en kracht te leveren voor de nieuwste AI-modellen. Deze sprong van 300 naar 2100 tokens per seconde laat zien hoe snel AI-technologie zich ontwikkelt, waarbij bedrijven voortdurend de grenzen van het mogelijke opzoeken.
De race gaat door
De race naar snellere AI wordt niet minder. Elk nieuw record brengt AI dichter bij de mogelijkheid om complexere, realtime toepassingen aan te drijven, waardoor de manier waarop we dagelijks met technologie omgaan wordt verbeterd. Omdat bedrijven als Groq en Cerebras blijven innoveren, kunnen we in de toekomst nog snellere, capabelere AI-systemen verwachten, waardoor technologie-ervaringen soepeler, sneller en indrukwekkender worden dan ooit.
Referenties
-
Groq bereikt meer dan 500 tokens/sec inferentiesnelheid met Llama 7B model. Geeky Gadgets (2024). Available online. Geraadpleegd: 4 november 2024.
-
Cerebras vestigt nieuw AI-snelheidsrecord met 2.100 tokens per seconde op Llama 3.2. Business Wire (2024). Available online. Geraadpleegd: 4 november 2024.