Python: Парсинг сайтов PYTHON - #4 СКАЧИВАНИЯ ФАЙЛОВ, ПАРСИНГ ДАННЫХ - видео HD

Python: Парсинг сайтов PYTHON - #4 СКАЧИВАНИЯ ФАЙЛОВ, ПАРСИНГ ДАННЫХ - видео
00:12:05

12n.ru 16760 роликов

Парсинг сайтов PYTHON - #4 СКАЧИВАНИЯ ФАЙЛОВ, ПАРСИНГ ДАННЫХ - видео.

Курс PyQt5 — Разработка графических интерфейсов:pyqt5.ru/О текущем курсе:Мы разберем парсинг сайтов python, изучим модулиrequests, bs4(BeautifulSoup), fake-useragent, multiprocessing.Напишем много парсеров на питоне, научимся находить нужные нам элементына странице, разберем структуру requests запросов, научимся передаватьсвои заголовки и свои данные на сайт.В процессе прохождения курса мы напишем программу для скачивания файловс сайта, научимся передавать прокси и юзер-агенты в запрос.Наглядно рассмотрим то, как спарсить сайт используя уже изученные намиинструменты.Под конец курса мы также изучим мультипроцессинг для ускоренного парсинга.Используемые библиотеки:requests, bs4lxml, fake-useragentmultiprocessing#ПарсингСайтов #ПарсингСайтовPython #ПарсингPython
RSS
ZProger [ IT ]
20:27
+3
Если остались вопросы либо предложения по-поводу видео, пишите их в комментарии, будет интересно прочитать мнение каждого
game zone
20:42
очень круто, спасибо
Влад
10:28
Хороший материал! Если ещё автор покажет нам где можно собирать рабочие прокси сотнями цены ему не будет)
Газиз Жоламанов
16:47
Научи тому, как с помощью скрэпа автоматический заполнять свежими новостями из разных источников свой сайт, будет позновательно)
Tihon 49
20:59
Офигенно!!!
Tihon 49
21:54
В конце сказали что будем подключать прокси, это очень актуально!
Tihon 49
22:00
Часто качаю фильмы с рутреккера, но не нравится что список фильмов приведён в виде списка названий, а картинки видно только когда заходишь по ссылке конкретного фильма. На днях начал делать на Django приложение которое бы парсило рутреккер и выводило список фильмов в более красивом виде, в виде карточек с картинкой, описанием и ссылкой на скачивание. Со стороны Django вопросов нет, а вот с парсингом не всё вяжется, хотя не первый раз пишу парсер, в частности не смог настроить прокси, только с приложением VPN получается работать, да и то не всё пока сделал. Так что очень очень жду следующего видео!
riko stud
23:21
Автор канала ты красавчик! очень интересно!!!
Леонид
03:52
+1
from lxml.html import fromstring
from urllib.parse import urljoin
import requests

def zastav():
url = 'https://zastavok.net/'
r = requests.get(url).text
f = fromstring®

pagination = f.cssselect('#clsLink3 a')[-2].text_content()
onne = int(pagination)
for value in range(1, onne):
silk =('/%s' % value)
ph = urljoin(url, silk)

pr = requests.get(ph).text
pf = fromstring(pr)

for image in pf.cssselect('.short_prev'):
a = image.cssselect('img')[0]
href = a.get('src')
ij = urljoin(url, href)
ir = requests.get(ij)
out = open('zastavimg/%s' %ij.split('/')[-1], 'wb')
out.write(ir.content)
out.close()
print(ij)

def main():
zastav()

if __name__ == '__main__':
main()

мои вариант кода, вместо bf4 использовал lxml)
Fedor Morozov
10:15
А почему эта конструкция выдает ошибку синтаксиса? r = requests.get(f'{link}{storage_number}').text