Cloud Machine Learning Engine (CMLE) er et kraftig verktøy levert av Google Cloud Platform (GCP) for opplæring av maskinlæringsmodeller på en distribuert og parallell måte. Den tilbyr imidlertid ikke automatisk ressursinnhenting og konfigurasjon, og håndterer heller ikke ressursavstenging etter at opplæringen av modellen er ferdig. I dette svaret vil vi vurdere detaljene i CMLE, dets muligheter og behovet for manuell ressursstyring.
CMLE er designet for å forenkle prosessen med å trene og distribuere maskinlæringsmodeller i stor skala. Det gir et administrert miljø som lar brukere fokusere på modellutvikling i stedet for infrastrukturadministrasjon. CMLE utnytter kraften i GCPs infrastruktur for å fordele treningsarbeidsmengden på tvers av flere maskiner, noe som muliggjør raskere treningstider og håndtering av store datasett.
Når du bruker CMLE, har brukere fleksibiliteten til å velge type og antall ressurser som kreves for opplæringsjobben. De kan velge maskintype, antall arbeidere og andre parametere basert på deres spesifikke krav. Imidlertid henter og konfigurerer ikke CMLE disse ressursene automatisk. Det er brukerens ansvar å sørge for nødvendige ressurser før opplæringsjobben starter.
For å skaffe ressursene kan brukere bruke GCP-tjenester som Compute Engine eller Kubernetes Engine. Disse tjenestene gir en skalerbar og fleksibel infrastruktur for å imøtekomme treningsarbeidet. Brukere kan lage virtuelle maskinforekomster eller containere, konfigurere dem med de nødvendige programvareavhengighetene og deretter bruke dem som arbeidere i CMLE.
Når treningsjobben er fullført, stenger ikke CMLE automatisk ned ressursene som brukes til opplæring. Dette er fordi den trente modellen kanskje må distribueres og betjenes for slutningsformål. Det er opp til brukeren å bestemme når og hvordan ressursene skal avsluttes for å unngå unødvendige kostnader.
For å oppsummere tilbyr CMLE en kraftig plattform for parallell opplæring av maskinlæringsmodeller. Den krever imidlertid manuell anskaffelse og konfigurering av ressurser og håndterer ikke ressursavstenging etter at opplæringen er ferdig. Brukere må sørge for de nødvendige ressursene ved å bruke GCP-tjenester som Compute Engine eller Kubernetes Engine og administrere livssyklusen deres basert på deres spesifikke krav.
Andre nyere spørsmål og svar vedr Fremgang i maskinlæring:
- Når en kjerne er splittet med data og originalen er privat, kan den splittede kjernen være offentlig og i så fall ikke et personvernbrudd?
- Hva er begrensningene ved å jobbe med store datasett i maskinlæring?
- Kan maskinlæring hjelpe til med dialog?
- Hva er TensorFlow-lekeplassen?
- Hindrer ivrig modus den distribuerte databehandlingsfunksjonaliteten til TensorFlow?
- Kan Googles skyløsninger brukes til å koble fra databehandling fra lagring for en mer effektiv opplæring av ML-modellen med big data?
- Er det mulig å trene maskinlæringsmodeller på vilkårlig store datasett uten problemer?
- Når du bruker CMLE, krever oppretting av en versjon at du spesifiserer en kilde for en eksportert modell?
- Kan CMLE lese fra Google Cloud-lagringsdata og bruke en spesifisert opplært modell for slutninger?
- Kan Tensorflow brukes til trening og inferens av dype nevrale nettverk (DNN)?
Se flere spørsmål og svar i Avansere i maskinlæring