Chat med DeepSeek-V3.2 nå
DeepSeek-V3.2: Resonneringsfokusert stor språkmodell
DeepSeek-V3.2 ble utgitt av DeepSeek 1. desember 2025. Det er en videreutvikling av den tidligere V3.2-Exp-modellen , utgitt 29. september 2025, og kommer i både hoved- og "Spesial"-varianter for forsknings- og produksjonsbruk.
DeepSeek-V3.2 er en transformerbasert LLM som bruker en sparsom Mixture-of-Experts-arkitektur pluss en tilpasset « DeepSeek Sparse Attention »-mekanisme for å redusere beregningsmengden samtidig som kvaliteten holdes høy. Den er rettet mot oppgaver som koding, matematikk, forskningsassistanse og flertrinnsresonnement, og er designet for å drive autonome agenter og verktøykallingsarbeidsflyter i stedet for bare enkel chat.
DeepSeek-V3.2 Effektivitet og ytelse
DeepSeek-V3.2 ble bygget på et Mixture-of-Experts (MoE)-rammeverk med 671 milliarder parametere totalt, men aktiverer bare rundt 37 milliarder per token for effektivitet. Denne modellen er i stand til å håndtere lange kontekster (opptil 128 000+ tokens) billigere enn modeller med tett oppmerksomhet, samtidig som ytelsen til referanseindeksen er lik eller bedre enn V3.1.
Referansetester og rapporter beskriver den som konkurransedyktig med toppmodeller i frontlinjen (som GPT-5.1 eller Gemini 3 Pro) på resonneringstunge oppgaver, spesielt i variantene med høyere beregningskrav.
Varianter av DeepSeek-V3.2
- DeepSeek-V3.2: Vanlig versjon optimalisert for generell resonnering og daglig distribusjon.
- DeepSeek-V3.2-Speciale: Høyberegningsvariant for avanserte oppgaver, utmerker seg i spesialiserte domener, men med høyere tokenbruk; midlertidig kun API frem til midten av desember 2025 for evaluering.
Sammenligning av DeepSeek-V3.2 og andre avanserte modeller
DeepSeek-V3.2 matcher eller overgår frontmodeller som GPT-5.1 og Gemini 3 Pro på viktige testtester, spesielt innen matematikk, koding og oppgaver med lang kontekst. Her er et sammendrag av sammenligningen mellom disse modellene:
| Aspekt | DeepSeek-V3.2 | DeepSeek-V3.2-Spesial | GPT-5.1 | Gemini 3 Pro |
| Utvikler | DeepSeek AI (Kina) | DeepSeek AI (Kina) | OpenAI (USA) | Google DeepMind (USA) |
| Utgivelsesdato | 1. desember 2025 | 1. desember 2025 (kun API i utgangspunktet) | 12. november 2025 | 17. november 2025 |
| Parametere | 671 milliarder totalt (MoE, ~37 milliarder aktive) | 671 milliarder totalt (MoE, ~37 milliarder aktive) | Ikke oppgitt (anslått >1T) | Ikke oppgitt (anslått >1T) |
| Kontekstlengde | 128 000–131 000 tokens | 128 000–131 000 tokens (optimalisert for lengre resonnement) | >128 000 tokens (sannsynligvis 1 mill.+) | 1 mill.+ tokens (opptil 2 mill. i noen moduser) |
| Viktige funksjoner | Resonering først, DeepSeek Sparse Attention (DSA) for effektivitet, integrert verktøybruk med tenkning, agentiske arbeidsflyter | Variant av resonnement med høy beregningsevne, avslappede lengdebegrensninger for komplekse oppgaver, utmerker seg i matematikk-/kodingsolympiader | Smartere resonnement, bedre tone/personlighet, sterk generalistprestasjon, multimodal | Naturlig multimodalitet, toppmoderne resonnering/verktøybruk, mestring av lang kontekst, kreativ/strategisk planlegging |
| Adgang | Åpen kildekode (MIT), Hugging Face, API, gratis app/nett | Kun API i starten (åpent medio desember 2025) | API/abonnement (betalte nivåer) | API/abonnement (betalte nivåer) |
| AIME 2025 (Matematikk) | 93,1 % | 96,0 % | 94,6 % | 95,0 % (100 % med kodeutførelse) |
| HMMT 2025 (Matematikk) | 92,5 % | 99,2 % | Ikke aktuelt | 97,5 % |
| SWE-Bench-verifisert (koding) | ~67–73 % (varierer etter evaluering) | 73,1 % | ~62–70 % (antatt) | 76,2 % |
| Terminalbenk 2.0 (Agentisk koding) | 46,4 % | Høyere (optimalisert) | 35,2 % | 54,2 % |
Slik får du tilgang til DeepSeek-V3.2
Den er tilgjengelig via gratis og betalte kanaler, inkludert webgrensesnitt, mobilapper, API-er og direkte nedlastinger for lokal distribusjon.
- HIX AI: Her tilbyr vi umiddelbar og enkel tilgang til DeepSeek-V3.2 og tidligere versjoner som DeepSeek-V3 og DeepSeek-R1 .
- Nett- og mobilapp: En annen måte for vanlige brukere å samhandle med DeepSeek-V3.2 er via DeepSeeks offisielle plattformer, inkludert det offisielle nettstedet https://www.deepseek.com/ og DeepSeek-mobilappen.
- API-tilgang: DeepSeeks API er OpenAI-kompatibelt, noe som gjør det enkelt å integrere i apper eller skript.
- Lokal distribusjon: Dette er en utviklerfokusert tilnærming. Du kan laste ned modellen fra Hugging Face-siden: https://huggingface.co/deepseek-ai/DeepSeek-V3.2 og kjøre den på din egen maskinvare.
Spørsmål og svar
Hva er de viktigste DeepSeek V3.2-variantene?
De viktigste produksjonsvariantene er DeepSeek-V3.2 (balansert modell for «daglig sjåfør») og DeepSeek-V3.2-Speciale (en avansert resonneringsmodell rettet mot svært vanskelige matematikk-, koding- og konkurranselignende problemer).
Hvordan er DeepSeek-V3.2 sammenlignet med GPT-5.1 eller Gemini 3 Pro når det gjelder ytelse?
DeepSeek-V3.2 utmerker seg innen matematikk/koding og effektivitet, og kan konkurrere med disse grensemodellene til lavere kostnader.
Støtter DeepSeek-V3.2 multimodale inndata som bilder eller video?
For øyeblikket støtter DeepSeek-V3.2 kun tekstinndata. Den er optimalisert for resonnement over lang tekst/kode/dokumenter.
Hva er kontekstvinduet til DeepSeek V3.2?
DeepSeek V3.2 arver et langt kontekstvindu (rundt 128 000 tokens) muliggjort av sparsom oppmerksomhet, slik at det kan håndtere hundrevis av tekstsider i én ledetekst.
Hvordan er V3.2 sammenlignet med tidligere DeepSeek-versjoner?
V3.2 bygger på V3.1 «Terminus»-generasjonen, men fokuserer på effektivitet og resonneringsatferd snarere enn rå benchmark-hopp, og sikter mot lignende eller bedre kvalitet til mye lavere kostnad takket være sparsom oppmerksomhet og oppdatert opplæring/justeringer.
Hva er DeepSeek Sparse Attention (DSA), og hvorfor er det viktig?
DeepSeek Sparse Attention er en finmasket mekanisme for sparsom oppmerksomhet som reduserer antall oppmerksomhetsoperasjoner per token, noe som gjør langkontekstbehandling mye billigere samtidig som kvaliteten holdes nær tidligere modeller for tett oppmerksomhet.


