반응형
크롤링할 콘텐츠
https://steadiness-193.tistory.com/119
위 포스팅에서 만든 코드를
get_data 함수로 정의한다.
https://steadiness-193.tistory.com/118
위 포스팅에서 만든 함수를
move_next 함수로 정의한다.
위 두개의 함수를 이용해서 모든 페이지의 원하는 내용을 긁어온다.
오류 없이 성공
총 217개의 데이터가 긁어졌다.
이를 df라는 변수명의 데이터프레임으로 바꾼다.
그리고 추후 분석을 위해
excel 파일로 저장한다.
to_excel은 url 때문에 에러 발생.
자세한 내용은 아래 포스팅 참조
https://steadiness-193.tistory.com/120
저장된 엑셀 확인
위 크롤링한 데이터에 대한 전처리와 분석은 아래 포스팅 참조
https://steadiness-193.tistory.com/124
https://steadiness-193.tistory.com/125
반응형
'Crawling (크롤링) > 네이버 쇼핑' 카테고리의 다른 글
크롤링 - webdriver(selenium)으로 네이버 쇼핑 긁어오기 (0) | 2020.07.12 |
---|---|
크롤링 - webdriver(selenium)으로 네이버 쇼핑 페이지 넘기기 (27) | 2020.07.12 |