LLM API-integration
En stor sprogmodel (LLM) behøver ikke bo lokalt i din applikation. De fleste udbydere – Anthropic, OpenAI, Google m.fl. – stiller deres modeller til rådighed via et HTTP API, som du kan kalde fra næsten ethvert programmeringssprog. Det betyder, at du kan tilføje AI-funktioner til en eksisterende applikation uden at håndtere modelhosting selv.
Hvad er et LLM-API?#
Et LLM-API er en REST-tjeneste, der modtager en besked (en prompt) og returnerer modellens svar som JSON. Konceptuelt ligner det et hvilket som helst andet web-API:
- Du sender en HTTP POST-request med din prompt og eventuelle parametre.
- Serveren sender prompten videre til modellen.
- Du modtager svaret og bruger det i din applikation.
Det kræver som regel en API-nøgle til autentifikation, og du betaler per token (omtrent per ord) du sender og modtager.
Systemprompt: sæt konteksten#
Med en system-parameter kan du fortælle modellen, hvilken rolle den skal spille:
Systemprompten styrer tone, sprog og begrænsninger uden at det er synligt for brugeren.
Hvad kan du bruge det til?#
API-adgang åbner op for at bygge AI-funktioner direkte ind i dine egne applikationer:
Tekstgenerering og -opsummering#
Send et langt dokument og bed modellen om et kort resume. Nyttigt til nyheder, rapporter eller mødereferater.
Struktureret output#
Ofte vil du have modellens svar i et bestemt format, f.eks. JSON, så du kan behandle det programmatisk. Det gøres ved at bede om det direkte i prompten:
Praktiske hensyn#
Omkostninger: Du betaler per token. Brug max_tokens til at begrænse udgifterne, og hold systemprompts korte.
Latency: Et API-kald tager typisk 0,5–3 sekunder. Til realtidsapplikationer kan du bruge streaming, så svar vises løbende mens modellen genererer dem.
Sikkerhed: Gem aldrig API-nøglen direkte i koden – brug miljøvariabler (os.environ["ANTHROPIC_API_KEY"]) eller en secrets manager.
Fejlhåndtering: API’er kan returnere fejl (rate limits, netværksfejl). Implementér retry-logik og fald-back-beskeder til brugeren.
Opsummering#
At kalde et LLM-API er ikke mere kompliceret end at kalde et hvhert andet web-API. De tre kerneelementer er:
- En systemprompt der definerer modellens rolle og begrænsninger
- En brugerbesked med det konkrete input
- Parsing af svaret til brug i din applikation
Derfra er mulighederne brede: opsummering, klassifikation, oversættelse, kodegenering, chatbots – alt hvad der kan beskrives som et sprogligt input/output-problem kan løses med et LLM-API.
There are no articles to list here yet.