Tīmekļa skrāpēšanas tehnoloģijas ar Python bibliotēkām
PROGRAMMAS MĒRĶIS
Sniegt zināšanas un prasmes pielietot tīmekļa skrāpēšanas tehnikas un metodikas, lai iegūt un apkopot datus no tīmekļa lapām, izmantojot Python bibliotēkas Beautiful Soup, Scrapy un Selenium.
Mācību ilgums un formāts
48 mācību stundas
Tiešsaistē
Mērķauditorija
Ikviens, kurš apkopo un analīzē datus, sadarbojas ar citiem, aprakstot un prezentējot datus: biznesa un finanšu speciālisti, analītiķi, pētnieki, digitālo mediju speciālisti u.c.
Tehnoloģijas
Python
Beautiful Soup
Scrapy, Selenium, Lxml
pyquery
Priekšzināšanas un priekšnoteikumi dalībai
Vēlamas pamatprasmes programmēšanā (algoritmi, loģiskās konstrukcijas).
Vēlamas pamatprasmes Python valodā.
Izpratne par datu analīzes uzdevumiem un mērķiem.
Mācīšanās rezultāti
Mācības notiek tiešsaistē. Mācību programmu veido 20% teorija un 80% praktiskie uzdevumi.
Mācības notiek 2 reizes nedēļā pa 4 mācību stundām 6 nedēļu garumā. Mācību laikā dalībnieki apgūst gan teoriju, ko nostiprina ar praktiskajiem uzdevumiem, gan grupās izstrādā projektu, kas balstīts uz reālu darba situāciju.
Mācīšanās rezultāti
Pēc sekmīgas mācību programmas apgūšanas kursa dalībnieki varēs patstāvīgi vai ar nelielu pieredzējušāku kolēģu atbalstu:
• izveidot Python darba vidi;
• izvēlēties un pielietot uzdevumiem piemērotāko Python bibliotēku;
• pielietot tīmekļa skrāpēšanas paņēmienus un metodikas vairākām tīmekļa lapu kopām;
• pielietot Python skrāpēšanas bibliotēku rīkus;
• pielietot paņēmienus informācijas iegūšanai no tīmekļa lapu datiem, izmantojot datu modeļus un atribūtus;
• veidot skrāpētājus ar nepieciešamo funkcionalitāti;
• skaidrot interneta vietņu karšu nozīmi datu skrāpēšanas uzdevumos;
• veikt datu tīrīšanu ar Python bibliotēku rīkiem;
• veikt datu kārtošanu ar Python bibliotēku rīkiem;
• pielietot paņēmienus datu ticamības pārbaudei;
• veikt datu trendu analīzi ar Python bibliotēku rīkiem;
• veidot datu trendu vizualizāciju ar Python bibliotēku rīkiem;
• pielietot datu aizsardzības regulas un politiku datu kvalitātes un atbilstības uzturēšanai;
• modelēt un plānot sistemātisku datu iegūšanas, apstrādes un glabāšanas vides novērošanu, lai identificētu un
• definētu ievainojamības un draudus, kā arī reģistrētu un ziņotu neatbilstības;
• veidot sadarbību ar kolēģiem, partneriem, klientiem, prezentējot datu apstrādes analīzes rezultātus.
Programma attīsta e-kompetences un caurviju kompetences
e-CF 4.0
-
D.7. Data Science and Analytics L3
-
E.6. ICT Quality Management L2
-
E.8. Information Security Management L2
Caurviju kompetences
-
Komunikācija
-
Pašattīstība
-
Darbs komandā
-
Iniciatīva
Kursa tēmas
1. Python darba vides sagatavošana:
1.1. Python bibliotēku izvēle
1.2. vaicājumu izmantošana datu iegūšanai
1.3. tīmekļa skrāpēšanas paņēmieni un metodikas vairākām tīmekļa lapu kopām
2. Datu iegūšana:
2.1. vaicājumu izmantošana datu iegūšanai
2.2. skrāpēšanas bibliotēku rīki un to pielietošana datu izgūšanai
2.3. skrāpētāju selektoru izmantošana datu meklēšanai un izgūšanai
2.4. datu ielāde unikodā / UTF-8
3. Skrāpētāju veidošana:
3.1. skrāpētāju funkcionalitātes izvēle
3.2. skrāpētāju funkcionalitātes izstrāde
4. Datu apstrāde:
4.1. datu tīrīšana
4.2. datu kārtošana
4.3. datu trendu analīze
4.4. datu vizualizācija
5. Datu kvalitāte:
5.1. datu ticamības nodrošināšana
5.2. datu atbilstība datu kvalitātes un datu aizsardzības regulām un politikām
6. Sadarbība ar kolēģiem, partneriem, klientiem, prezentējot datu apstrādes un analīzes rezultātus:
6.1. datu iegūšanas, apstrādes un glabāšanas vides ievainojamības un draudu identificēšana un novēršana
6.2. skrāpēšanas bibliotēku Beautiful Soup un Scrapy rīku izmantošana datu izgūšanai