EITC/AI/DLPP Deep Learning with Python and PyTorch er det europeiske IT-sertifiseringsprogrammet på grunnleggende programmering av dyp læring i Python med PyTorch maskinlæringsbibliotek.
Læreplanen til EITC/AI/DLPP Deep Learning with Python and PyTorch fokuserer på praktiske ferdigheter i deep learning Python-programmering med PyTorch-bibliotek organisert i følgende struktur, og inkluderer omfattende videodidaktisk innhold som referanse for denne EITC-sertifiseringen.
Dyp læring (også kjent som dyp strukturert læring) er en del av en bredere familie av maskinlæringsmetoder basert på kunstige nevrale nettverk med representasjonslæring. Læring kan være under oppsyn, halvveiledet eller uten tilsyn. Dyplæringsarkitekturer som dype nevrale nettverk, dype trosnettverk, tilbakevendende nevrale nettverk og konvolusjonelle nevrale nettverk har blitt brukt på felt, inkludert datasyn, maskinvisjon, talegjenkjenning, naturlig språkbehandling, lydgjenkjenning, filtrering av sosiale nettverk, maskinoversettelser, bioinformatikk , legemiddeldesign, medisinsk bildeanalyse, materialeinspeksjon og brettspillprogrammer, der de har gitt resultater som kan sammenlignes med og i noen tilfeller overgår menneskelige ekspertise.
Python er et tolket, høyt nivå og generelt programmeringsspråk. Pythons designfilosofi legger vekt på kodelesbarhet med sin bemerkelsesverdige bruk av stort mellomrom. Språkkonstruksjonene og den objektorienterte tilnærmingen tar sikte på å hjelpe programmerere med å skrive klar, logisk kode for små og store prosjekter. Python blir ofte beskrevet som et “batterier inkludert” språk på grunn av det omfattende standardbiblioteket. Python brukes ofte i kunstig intelligensprosjekter og maskinlæringsprosjekter ved hjelp av biblioteker som TensorFlow, Keras, Pytorch og Scikit-learning.
Python er dynamisk skrevet (utfører ved kjøring mange vanlige programmeringsatferd som statiske programmeringsspråk utfører under kompilering) og samler søppel (med automatisk minnestyring). Den støtter flere programmeringsparadigmer, inkludert strukturert (spesielt prosessuell), objektorientert og funksjonell programmering. Den ble opprettet på slutten av 1980-tallet, og ble først utgitt i 1991, av Guido van Rossum som en etterfølger til ABC-programmeringsspråket. Python 2.0, utgitt i 2000, introduserte nye funksjoner, som listeforståelse, og et søppeloppsamlingssystem med referansetelling, og ble avviklet med versjon 2.7 i 2020. Python 3.0, utgitt i 2008, var en større revisjon av språket som er ikke helt bakoverkompatibel og mye Python 2-kode kjører ikke umodifisert på Python 3. Med Python 2s levetid (og pip har droppet støtte i 2021), er det bare Python 3.6.x og senere som støttes, med eldre versjoner fremdeles støtter f.eks. Windows 7 (og gamle installatører som ikke er begrenset til 64-biters Windows).
Python-tolker støttes for vanlige operativsystemer og er tilgjengelige for noen få flere (og tidligere støttet mange flere). Et globalt fellesskap av programmerere utvikler og vedlikeholder CPython, en gratis og åpen kildekode-referanseimplementering. En ideell organisasjon, Python Software Foundation, administrerer og leder ressurser for utvikling av Python og CPython.
Per januar 2021 ligger Python på tredje plass i TIOBEs indeks over mest populære programmeringsspråk, bak C og Java, etter å ha vunnet andreplassen og prisen for den mest populære gevinsten for 2020. Den ble valgt til Årets programmeringsspråk i 2007, 2010 og 2018.
En empirisk studie fant at skriptspråk, som Python, er mer produktive enn konvensjonelle språk, som C og Java, for programmeringsproblemer som involverer strengmanipulering og søk i en ordbok, og bestemte at minneforbruket ofte var "bedre enn Java og ikke mye verre enn C eller C ++ ”. Store organisasjoner som bruker Python inkluderer blant annet Wikipedia, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.
Utover applikasjonene for kunstig intelligens, brukes Python ofte som skriptspråk med modulær arkitektur, enkel syntaks og rik tekstbehandlingsverktøy for naturlig språkbehandling.
PyTorch er et open source maskinlæringsbibliotek basert på Torch-biblioteket, brukt til applikasjoner som datasyn og naturlig språkbehandling, hovedsakelig utviklet av Facebooks AI Research lab (FAIR). Det er gratis programvare med åpen kildekode utgitt under modifisert BSD-lisens. Selv om Python-grensesnittet er mer polert og det primære fokuset for utvikling, har PyTorch også et C ++ -grensesnitt. En rekke stykker Deep Learning-programvare er bygget på toppen av PyTorch, inkludert Tesla Autopilot, Ubers Pyro, HuggingFace's Transformers, PyTorch Lightning og Catalyst.
- Tensorberegning (som NumPy) med sterk akselerasjon via grafikkbehandlingsenheter (GPU)
- Dype nevrale nettverk bygget på et båndbasert automatisk (beregnings-) differensieringssystem
Facebook driver både PyTorch og Convolutional Architecture for Fast Feature Embedding (Caffe2), men modeller definert av de to rammene var gjensidig inkompatible. Open Neural Network Exchange (ONNX) -prosjektet ble opprettet av Facebook og Microsoft i september 2017 for å konvertere modeller mellom rammer. Caffe2 ble slått sammen til PyTorch i slutten av mars 2018.
PyTorch definerer en klasse som kalles Tensor (fakkel. Tensor) for å lagre og operere på homogene flerdimensjonale rektangulære tallrekke. PyTorch Tensors er lik NumPy Arrays, men kan også brukes på en CUDA-kompatibel Nvidia GPU. PyTorch støtter forskjellige undertyper Tensorer.
Det er få viktige moduler for Pytorch. Disse inkluderer:
- Autograd-modul: PyTorch bruker en metode som kalles automatisk differensiering. En opptaker registrerer hvilke operasjoner som har utført, og deretter spiller den den bakover for å beregne gradientene. Denne metoden er spesielt kraftig når man bygger nevrale nettverk for å spare tid på en periode ved å beregne differensiering av parametrene ved fremoverpasset.
- Optim-modul: torch.optim er en modul som implementerer forskjellige optimaliseringsalgoritmer som brukes til å bygge nevrale nettverk. De fleste av de mest brukte metodene støttes allerede, så det er ikke nødvendig å bygge dem fra bunnen av.
- nn-modul: PyTorch autograd gjør det enkelt å definere beregningsdiagrammer og ta gradienter, men rå autograd kan være litt for lavt for å definere komplekse nevrale nettverk. Det er her nn-modulen kan hjelpe.
For å gjøre deg mer kjent med sertifiseringspensumet kan du utvide og analysere tabellen nedenfor.
EITC/AI/DLPP Deep Learning with Python and PyTorch Certification Curriculum refererer til didaktisk materiale med åpen tilgang i et videoskjema av Harrison Kinsley. Læringsprosessen er delt inn i en trinnvis struktur (programmer -> leksjoner -> emner) som dekker relevante læreplandeler. Ubegrenset rådgivning med domeneeksperter tilbys også.
Sjekk for detaljer om sertifiseringsprosedyren Hvordan det fungerer.
Last ned det komplette offline selvlæringsforberedende materialet for EITC/AI/DLPP Deep Learning med Python og PyTorch-programmet i en PDF-fil
EITC/AI/DLPP forberedende materialer – standardversjon
EITC/AI/DLPP forberedende materialer – utvidet versjon med gjennomgangsspørsmål