Et nyttig utviklingstiltak kan knyttes til nettstedet for Dosentstigen der vi samler eksempler på utviklingsarbeider, dokumentasjon av dem, kommisjonsvurderinger og kommentar/analyse. Dette brukes som såkalt kontekdtvindu for spørsmål om dosentstigen og andre former for bistand.
I den forbindelsr bør store språkmodeller skreddersys med ulike mekanismer, derundet finstilling av kontekstvinduet.
GPT-4o fine-tuning is available today to all developers on all paid usage tiers(opens in a new window).
To get started, visit the fine-tuning dashboard(opens in a new window), click create, and select gpt-4o-2024-08-06 from the base model drop-down. GPT-4o fine-tuning training costs $25 per million tokens, and inference is $3.75 per million input tokens and $15 per million output tokens.
GPT-4o mini fine-tuning is also available to all developers on all paid usage tiers. Visit the fine-tuning dashboard and select gpt-4o-mini-2024-07-18 from the base model drop-down. For GPT-4o mini, we’re offering 2M training tokens per day for free through September 23.
To learn more about how to use fine-tuning, visit our docs(opens in a new window).
Dosentforeningen kan søke om utviklingsmidler for å realisere dette.