일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 파이썬 주식
- docker
- hackerrank
- 코딩테스트
- 프로그래머스
- Crawling
- 데이터분석
- 변동성돌파전략
- Quant
- 파트5
- backtest
- 데이터분석전문가
- 파이썬
- 빅데이터분석기사
- SQL
- sarima
- lstm
- 토익스피킹
- 백테스트
- 볼린저밴드
- 비트코인
- ADP
- randomforest
- Programmers
- 주식
- PolynomialFeatures
- 실기
- TimeSeries
- Python
- GridSearchCV
- Today
- Total
목록Crawling (7)
데이터 공부를 기록하는 공간

참고 블로그 : https://wg-cy.tistory.com/54 ### https://blog.naver.com/ellijahbyeon/222213048898 import requests import pandas as pd import numpy as np from io import BytesIO import time import datetime from tqdm import tqdm import os ### generate.cmd ### payload - Form Data ''' locale: ko_KR trdDd: 20220603 share: 1 money: 1 csvxls_isNo: false name: fileDown url: dbms/MDC/STAT/standard/MDCSTAT15601 '..

참고글 https://blog.naver.com/ellijahbyeon/222213048898 ✔ 라이브러리 ### https://blog.naver.com/ellijahbyeon/222213048898 import requests import pandas as pd from io import BytesIO ✔ 크롤링 함수 정의 path = 'C:/#####/####/test/' #### 저장주소, 주식데이터 def krx_basic(tdate): #### generate gen_req_url = 'http://data.krx.co.kr/comm/fileDn/GenerateOTP/generate.cmd' query_str_parms = { 'mktId': 'ALL', 'trdDd': str(tdate),..

■ Library import pandas as pd import matplotlib.pyplot as plt import datetime import requests from bs4 import BeautifulSoup sns.set_context("talk") sns.set_style("white") import platform from matplotlib import font_manager, rc path="c:\Windows\Fonts\malgun.ttf" if platform.system() == 'Darwin': rc('font',family='AppleGothic') elif platform.system() == 'Windows': font_name=font_manager.FontProper..

http://epsis.kpx.or.kr/epsisnew/ 전력수급 > 실시간 전력수급 데이터 화면(아래)를 크롤링 from selenium import webdriver from bs4 import BeautifulSoup import numpy as np import pandas as pd driver = webdriver.Chrome("./chromedriver") #3초 기다려주기, 웹페이지 로딩까지 driver.implicitly_wait(3) driver.get("http://epsis.kpx.or.kr/epsisnew/selectEkgeEpsMepRealChart.do?menuId=030300") soup = BeautifulSoup(driver.page_source, 'html.parser..