4_7_M_Tīmekļa skrāpēšanas tehnoloģijas ar Python bibliotēkām
Programmu kopa: Datu izgūšanas pamati
PROGRAMMAS MĒRĶIS
Izglītības procesa rezultātā iegūt zināšanas un apgūt prasmes par tīmekļa skrāpēšanas tehnikām un metodikām, lai iegūt un apkopot datus no tīmekļa lapām, izmantojot Python bibliotēkas Beautiful Soup un Scrapy.
Mācību ilgums un formāts
80 mācību stundas:
60 stundas tiešsaistē ar
pasniedzēju un 20 stundas
individuālā praktiskā mācīšanās
Mērķauditorija
Ikviens, kurš bieži apkopo un analīzē datus, sadarbojas ar citiem, aprakstot un prezentējot datus: biznesa un finanšu speciālisti, analītiķi, pētnieki, digitālo mediju speciālisti, vadītaji, ir nodarbināta persona un vēlas uzlabot prasmes
Tehnoloģijas
Windows operētājsistēma
Microsoft Excel
Python
Beautiful soup
Scrapy
Selenium
Priekšzināšanas un priekšnoteikumi dalībai
Vismaz vidējā izglītība. Datorlietošanas prasmes vidējā līmenī.
Mācību norise un nepieciešamais aprīkojums
Nodarbības notiek tiešsaistē divus darba dienas vakarus nedēļā un trīs sestdienas. Sekmīgai dalībai mācībās dalībniekam ir nepieciešams dators ar Windows operētājsistēmu, webkameru un mikrofonu, kā arī stabils interneta pieslēgums. Mācību programmas apgūšanai nepieciešamo programmatūru nodrošina izglītības iestāde.
Mācīšanās rezultāti
Pēc veiksmīgas izglītības programmas apgūšanas dalībnieks būs spējīgs:
1. izveidot Python darba vidi;
2. izvēlēties un pielietot uzdevumiem piemērotāko Python bibliotēku;
3. pielietot tīmekļa skrāpēšanas paņēmienus un metodikas vairākām tīmekļa lapu kopām;
4. pielietot Python skrāpēšanas bibliotēku rīkus;
5. pielietot paņēmienus informācijas iegūšanai no tīmekļa lapu datiem, izmantojot datu modeļus un atribūtus;
6. veidot skrāpētājus ar nepieciešamo funkcionalitāti;
7. skaidrot interneta vietņu karšu nozīmi datu skrāpēšanas uzdevumos;
8. veikt datu tīrīšanu ar Python bibliotēku rīkiem;
9. veikt datu kārtošanu ar Python bibliotēku rīkiem;
10. pielietot paņēmienus datu ticamības pārbaudei;
11. veikt datu trendu analīzi ar Python bibliotēku rīkiem;
12. veidot datu trendu vizualizāciju ar Python bibliotēku rīkiem;
13. pielietot datu aizsardzības regulas un politiku datu kvalitātes un atbilstības uzturēšanai;
14. modelēt un plānot sistemātisku datu iegūšanas, apstrādes un glabāšanas vides novērošanu, lai identificētu un definētu ievainojamības un draudus, kā arī reģistrētu un ziņotu neatbilstības;
15. veidot sadarbību ar kolēģiem, partneriem, klientiem, prezentējot datu apstrādes analīzes rezultātus.
Programma attīsta e-kompetences un caurviju kompetences
DIGCOMP 2.2.
Programmēšana, tīmekļa vietņu un lietotņu izstrāde un uzturēšana, 6.līmenis
e-CF 4.0
D.7. Data Science and Analytics L2 & L3
E.6. ICT Quality Management L2
E.8. Information Security Management L2
Caurviju kompetences
-
Komunikācija
-
Pašattīstība
-
Darbs komandā
-
Iniciatīva
Materiāli kursa dalībniekiem
Pasniedzēja sagatavoti mācību materiāli latviešu valodā.
Galvenās tēmas:
1. Python darba vides sagatavošana
1.1. Python bibliotēku izvēle
1.2. Vaicājumu izmantošana datu iegūšanai
1.3. Skrāpēšanas bibliotēku Beatiful Soup un Scrapy rīku izmantošana datu izgūšanai
2. Tīmekļa skrāpēšanas paņēmieni un metodikas vairākām tīmekļa lapu kopām
3. Datu iegūšana
3.1. Vaicājumu izmantošana datu iegūšanai
3.2. Skrāpēšanas bibliotēku rīki un to pielietošana datu izgūšanai
3.3. Skrāpēju selektoru izmantošana datu meklēšanai un izgūšanai
3.4. Datu ielāde unikodā / UTF-8
4. Skrāpētāju veidošana
4.1.Skrāpētāju funkcionalitātes izvēle
4.2. Skrāpētāju funkcionalitātes izstrāde
5. Datu apstrāde
5.1. Datu tīrīšana
5.2. Datu kārtošana
5.3. Datu trendu analīze
5.4. Datu vizualizācija
6. Datu kvalitāte
6.1. Datu ticamības nodrošināšana
6.2. Datu atbilstība datu kvalitātes un datu aizsardzības regulām un politikām;
6.3. Datu iegūšanas, apstrādes un glabāšanas vides ievainojamības un draudu identificēšana un novēršana
7. Sadarbība ar kolēģiem, partneriem, klientiem, prezentējot datu apstrādes un analīzes rezultātus