Tīmekļa skrāpēšanas tehnoloģijas ar Python bibliotēkām

PROGRAMMAS MĒRĶIS

Sniegt zināšanas un prasmes pielietot tīmekļa skrāpēšanas tehnikas un metodikas, lai iegūt un apkopot datus no tīmekļa lapām, izmantojot Python bibliotēkas Beautiful Soup, Scrapy un Selenium.

Mācību ilgums un formāts

48 mācību stundas
Tiešsaistē

Mērķauditorija

Ikviens, kurš apkopo un analīzē datus, sadarbojas ar citiem, aprakstot un prezentējot datus: biznesa un finanšu speciālisti, analītiķi, pētnieki, digitālo mediju speciālisti u.c.

Tehnoloģijas

Python

Beautiful Soup

Scrapy, Selenium, Lxml

pyquery

Priekšzināšanas un priekšnoteikumi dalībai

Vēlamas pamatprasmes programmēšanā (algoritmi, loģiskās konstrukcijas).

Vēlamas pamatprasmes Python valodā.

Izpratne par datu analīzes uzdevumiem un mērķiem.

Mācīšanās rezultāti

Mācības notiek tiešsaistē. Mācību programmu veido 20% teorija un 80% praktiskie uzdevumi.  

Mācības notiek 2 reizes nedēļā pa 4 mācību stundām 6 nedēļu garumā. Mācību laikā dalībnieki apgūst gan teoriju, ko nostiprina ar praktiskajiem uzdevumiem, gan grupās izstrādā projektu, kas balstīts uz reālu darba situāciju.

Mācīšanās rezultāti

Pēc sekmīgas mācību programmas apgūšanas kursa dalībnieki varēs patstāvīgi vai ar nelielu pieredzējušāku kolēģu atbalstu:

• izveidot Python darba vidi; 

• izvēlēties un pielietot uzdevumiem piemērotāko Python bibliotēku;

• pielietot tīmekļa skrāpēšanas paņēmienus un metodikas vairākām tīmekļa lapu kopām;

• pielietot Python skrāpēšanas bibliotēku rīkus;

• pielietot paņēmienus  informācijas iegūšanai no tīmekļa lapu datiem, izmantojot datu modeļus un atribūtus;

• veidot skrāpētājus ar nepieciešamo funkcionalitāti; 

• skaidrot interneta vietņu karšu nozīmi datu skrāpēšanas uzdevumos;

• veikt datu tīrīšanu ar Python bibliotēku rīkiem;

• veikt datu kārtošanu ar Python bibliotēku rīkiem;

• pielietot paņēmienus datu ticamības pārbaudei;

• veikt datu trendu analīzi ar Python bibliotēku rīkiem;

• veidot datu trendu vizualizāciju ar Python bibliotēku rīkiem;

• pielietot datu aizsardzības regulas un politiku datu kvalitātes un atbilstības uzturēšanai;

• modelēt un plānot sistemātisku datu iegūšanas, apstrādes un glabāšanas vides novērošanu, lai identificētu un

• definētu ievainojamības un draudus, kā arī reģistrētu un ziņotu neatbilstības;

• veidot sadarbību ar kolēģiem, partneriem, klientiem, prezentējot datu apstrādes analīzes rezultātus.

Programma attīsta e-kompetences un caurviju kompetences

e-CF 4.0

  • D.7. Data Science and Analytics L3

  • E.6. ICT Quality Management L2 

  • E.8. Information Security Management L2

Caurviju kompetences

 

  • Komunikācija

  • Pašattīstība

  • Darbs komandā

  • Iniciatīva

Kursa tēmas

 

1. Python darba vides sagatavošana:

1.1. Python bibliotēku izvēle

1.2. vaicājumu izmantošana datu iegūšanai

1.3. tīmekļa skrāpēšanas paņēmieni un metodikas vairākām tīmekļa lapu kopām

2. Datu iegūšana:  

2.1. vaicājumu izmantošana datu iegūšanai

2.2. skrāpēšanas bibliotēku rīki un to pielietošana datu izgūšanai

2.3. skrāpētāju selektoru izmantošana datu meklēšanai un izgūšanai

2.4. datu ielāde unikodā / UTF-8

3. Skrāpētāju veidošana:

3.1. skrāpētāju funkcionalitātes izvēle

3.2. skrāpētāju funkcionalitātes izstrāde

4. Datu apstrāde:

4.1. datu tīrīšana

4.2. datu kārtošana

4.3. datu trendu analīze

4.4. datu vizualizācija

5. Datu kvalitāte:

5.1. datu ticamības nodrošināšana

5.2. datu atbilstība datu kvalitātes un datu aizsardzības regulām un politikām

6. Sadarbība ar kolēģiem, partneriem, klientiem, prezentējot datu apstrādes un analīzes rezultātus:

6.1. datu iegūšanas, apstrādes un glabāšanas vides ievainojamības un draudu identificēšana un novēršana

6.2. skrāpēšanas bibliotēku Beautiful Soup un Scrapy rīku izmantošana datu izgūšanai

Cena: 960 EUR + PVN