일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- selenium
- 웹크롤링
- Overfitting
- 협업 필터링
- coursera
- 알고리즘
- 부스트캠프
- 데이터
- Cosine-similarity
- 분산 시스템
- 웹스크래핑
- SGD
- 백준
- 코테
- 머신러닝
- 추천시스템
- TF-IDF
- 시각화
- Tensor
- 딥러닝
- 추천 시스템
- 파이썬
- 프로그래머스
- 코딩테스트
- 데이터 엔지니어링
- pytorch
- wordcloud
- recommendation system
- Python
- codingtest
- Today
- Total
목록Data/Python (21)
개발자식
DAY 3 파이썬의 함수, 변수 헷갈렸던 개념을 정리해보자 (특히 메모리 참조 부분!) 함수 호출 방식 - 함수에서 파라미터를 전달하는 방식 Call by Value Call by Reference Call by Object Reference 결론부터 얘기하면 파이썬은 Call by Object Reference 방식이다. Call by Value - 함수에 인자를 넘길 때 값만 넘긴다. - 함수 내에 인자 값 변경 시, 호출자에게 영향을 주지 않음 Call by Reference - 함수에 인자를 넘길 때 메모리 주소를 넘긴다. - 함수 내에 인자 값 변경 시, 호출자의 값도 변경됨 Call by Object Reference - 객체의 주소가 함수로 전달되는 방식 - 전달된 객체를 참조하여 변경 시 ..
순열 (Permutation) : 서로 다른 n개에서 r개를 선택할 때 순서를 고려하여 선택한 경우의 수를 나열하는 방법 (중복 허용x) - nPr (0

공공데이터 포털의 Open API를 활용하여 "국토교통부_상업업무용 부동산 매매 신고 자료"를 웹 크롤링(XML) 을 해본다. 1. API 인증키 발급 신청하기 국토교통부_상업업무용 부동산 매매 신고 자료 URL : https://www.data.go.kr/data/15057267/openapi.do 국토교통부_상업업무용 부동산 매매 신고 자료 부동산 거래신고에 관한 법률에 따라 신고된 주택의 실거래 자료를 제공 www.data.go.kr API 인증키 발급 신청하기 회원 가입 & 로그인 "국토교통부_상업업무용 부동산 매매 신고 자료"에 대해 "활용 신청" 버튼을 클릭 다른 설정들은 그대로 두고 "상세기능정보 선택" 및 "라이선스 표시"의 체크박스 체크 후 "신청" 버튼 클릭 마이페이지 > 해당 자료 >..

네이버 금융 TOP 종목을 크롤링한다. 이때 쓰인 table 태그를 알아보고 어제보다 가장 많이 올른 종목을 확인해본다. 1. 네이버 금융 TOP 종목 크롤링 import requests from bs4 import BeautifulSoup url = 'http://finance.naver.com' res = requests.get(url).content soup = BeautifulSoup(res, 'html.parser') TOP 종목의 종목명, 현재값, 어제보다 변화한 값, 어제보다 변화한 비율을 크롤링 하자 크롬 개발자 도구로 확인하니 TOP 종목이 tbody 태그로 감싸져 있는 것을 알 수 있다. 테이블 태그 - 표를 만드는 태그 thead : 테이블 제목 tbody : 테이블 내용 : td 태..
인스타그램, 트위터와 같이 무한으로 스크롤을 내릴 수 있는 사이트가 있다. 이는 BeautifulSoup으로 한 번에 가져오지 못하므로, Selenium을 이용해야 한다. 이 예제는 돌아가지 않고, 코드 분석 용이다. from webdriver_manager.chrome import ChromeDriverManager # 자동으로 크롬드라이버(가상브라우저) 파일을 다운로드해주는 라이브러리 from selenium.webdriver.chrome.service import Service # 다운로드된 크롬드라이버 파일을 연결하기 위해 활용 from selenium import webdriver from bs4 import BeautifulSoup import pandas as pd import time im..

서울상권분석서비스 사이트를 이용하여 post request 기반의 웹사이트를 크롤링해보자. https://golmok.seoul.go.kr/regionAreaAnalysis.do 우리마을가게 상권분석 서비스 제공정보 안내 업종과밀도 정의 : 사업체가 시장균형을 이룰 수 있는 적정한 정도를 넘어서 한 상권에 밀집하여 분포한 정도 구축내용 • 알고리즘 : 2013 - 2017년 상권정보 데이터를 활용한 GMM 모 golmok.seoul.go.kr 1. 웹 크롤링 import json import requests from bs4 import BeautifulSoup url = 'https://golmok.seoul.go.kr/regionAreaAnalysis.do' response = requests.get(..