LLM API-integration

En stor sprogmodel (LLM) behøver ikke bo lokalt i din applikation. De fleste udbydere – Anthropic, OpenAI, Google m.fl. – stiller deres modeller til rådighed via et HTTP API, som du kan kalde fra næsten ethvert programmeringssprog. Det betyder, at du kan tilføje AI-funktioner til en eksisterende applikation uden at håndtere modelhosting selv.

Hvad er et LLM-API?
#

Et LLM-API er en REST-tjeneste, der modtager en besked (en prompt) og returnerer modellens svar som JSON. Konceptuelt ligner det et hvilket som helst andet web-API:

  1. Du sender en HTTP POST-request med din prompt og eventuelle parametre.
  2. Serveren sender prompten videre til modellen.
  3. Du modtager svaret og bruger det i din applikation.

Det kræver som regel en API-nøgle til autentifikation, og du betaler per token (omtrent per ord) du sender og modtager.

Systemprompt: sæt konteksten
#

Med en system-parameter kan du fortælle modellen, hvilken rolle den skal spille:

Systemprompten styrer tone, sprog og begrænsninger uden at det er synligt for brugeren.

Hvad kan du bruge det til?
#

API-adgang åbner op for at bygge AI-funktioner direkte ind i dine egne applikationer:

Tekstgenerering og -opsummering
#

Send et langt dokument og bed modellen om et kort resume. Nyttigt til nyheder, rapporter eller mødereferater.

Struktureret output
#

Ofte vil du have modellens svar i et bestemt format, f.eks. JSON, så du kan behandle det programmatisk. Det gøres ved at bede om det direkte i prompten:

Praktiske hensyn
#

Omkostninger: Du betaler per token. Brug max_tokens til at begrænse udgifterne, og hold systemprompts korte.

Latency: Et API-kald tager typisk 0,5–3 sekunder. Til realtidsapplikationer kan du bruge streaming, så svar vises løbende mens modellen genererer dem.

Sikkerhed: Gem aldrig API-nøglen direkte i koden – brug miljøvariabler (os.environ["ANTHROPIC_API_KEY"]) eller en secrets manager.

Fejlhåndtering: API’er kan returnere fejl (rate limits, netværksfejl). Implementér retry-logik og fald-back-beskeder til brugeren.

Opsummering
#

At kalde et LLM-API er ikke mere kompliceret end at kalde et hvhert andet web-API. De tre kerneelementer er:

  • En systemprompt der definerer modellens rolle og begrænsninger
  • En brugerbesked med det konkrete input
  • Parsing af svaret til brug i din applikation

Derfra er mulighederne brede: opsummering, klassifikation, oversættelse, kodegenering, chatbots – alt hvad der kan beskrives som et sprogligt input/output-problem kan løses med et LLM-API.

There are no articles to list here yet.