Linkki alkuperäiseen artikkeliin
OpenAI julkaisi eilen kaksi uutta huipputason avointa kielimallia: gpt-oss-120b ja gpt-oss-20b. Nämä mallit on suunniteltu toimimaan kevyemmillä GPU-resursseilla, mikä tekee niistä helposti saavutettavia kehittäjille, jotka haluavat itse isännöidä tehokkaita kielimalleja omissa ympäristöissään.
Azure Container Appsin serverittömät GPU:t tarjoavat kustannustehokkaan ja skaalautuvan alustan näiden mallien pilvikäyttöön – ilman raskasta infrastruktuurin hallintaa.
Miksi käyttää Azure Container Appsin serverittömiä GPU:ita?
Azure Container Apps on täysin hallittu, serverless-konttialusta, joka yksinkertaistaa konttipohjaisten sovellusten käyttöönottoa ja hallintaa. GPU-tuen myötä kehittäjät voivat tuoda omat konttinsa ja suorittaa ne GPU-ympäristössä, joka skaalaa automaattisesti käytön mukaan.
Keskeiset hyödyt:
- 🔄 Autoskaalaus – skaalautuu nollaan, kun ei ole käyttöä, ja kasvaa tarpeen mukaan
- ⏱ Sekuntipohjainen laskutus – maksat vain käytetystä laskennasta
- ⚡ Helppokäyttöisyys – nopeuttaa kehittäjien työskentelyä, tuo minkä tahansa kontin pilveen
- 🛠 Ei infrastruktuurin hallintaa – keskity malliin ja sovellukseen
- 🏢 Yritystason ominaisuudet – tuki yksityisille verkoille, hallituille identiteeteille ja tietosuojalle
Oikean mallin valinta
- gpt-oss-120b
- Verrattavissa OpenAI:n gpt-o4-mini -malliin
- Sopii korkean suorituskyvyn työkuormiin ja vaativaan päättelyyn
- Toimii A100 GPU:illa Azure Container Appsissa
- gpt-oss-20b
- Verrattavissa gpt-o3-mini -malliin
- Soveltuu kustannustehokkaisiin pienempiin kielimallipohjaisiin sovelluksiin
- Toimii edullisesti T4 GPU:illa tai nopeammin A100 GPU:illa
Käyttöönotto Azure Container Appsissa
Kehittäjät voivat ottaa gpt-oss-mallit käyttöön Azure Container Appsin kautta helposti Ollama-konttia hyödyntäen:
- Luo Container App Azure-portaalissa
- Valitse oikea alue GPU-tyypin mukaan (A100 tai T4)
- Konfiguroi kontti (ollama/ollama:latest) ja ota GPU-tuki käyttöön
- Ota Ingress käyttöön liikennettä varten
- Käynnistä resurssi ja suorita malli Ollaman komennoilla
Muutamassa vaiheessa kehittäjät voivat ajaa joko gpt-oss-120b– tai gpt-oss-20b-mallia täysin skaalautuvassa ympäristössä.
Miksi tämä on merkittävää?
OpenAI:n gpt-oss-mallien saatavuus Azure Container Appsin serverittömillä GPU:illa avaa ovet:
- avoimien, tehokkaiden kielimallien kustannustehokkaaseen käyttöön
- kehittäjille, jotka haluavat hallita itse mallien isännöintiä
- yrityksille, jotka tarvitsevat joustavuutta ja tietoturvaa omissa AI-sovelluksissaan
OpenAI:n gpt-oss-mallit ja Azure Container Apps yhdessä tuovat skaalautuvan, kustannustehokkaan ja helposti hallittavan tavan hyödyntää uusimman sukupolven avoimia kielimalleja – ilman raskaita infrastruktuuri-investointeja.