1. 개발자 도구를 활용한 웹페이지에 대한 분석 2. 분석한 데이터를 활용한 페이지 요청 3. Workbook 을 활용한 Excel 추출 개발자 도구를 활용한 웹페이지에 대한 분석 최근 크몽을 통해서 문의가 들어온 요청을 대응 했던 과정을 포스팅 하려고 한다. 문의사항은 간결하고 명확했다. 필요한 정보는 제목, 내용, 링크, 가격(추가 요청), 작성일(추가요청) 총 5가지 정보로, 검색결과 목록에서 제목, 링크, 작성일 정보를 추출한 후, 해당 물건 상세 페이지에서 내용과 가격정보를 크롤링하면 되는 비교적 간단한 크롤링 요청 건 이다. 추가 조건 중 하나는 "판매완료" 여부를 확인하면 된다. 이를 위해서 우선 중고나라에서 특정 검색어를 입력하여 웹페이지에서 동작 상태를 확인해보았다. 검색조건으로 적용할 ..
앞선 포스팅 1~3에서 python을 이용하여 네이버 부동산 상가 매물 크롤링을 하기 위한 과정을 세번째 단계로 정리하여 포스팅 하였다. 하지만 이렇게 코드로는 사용성이 낮아지는 부분이 있어서, 상가매물 선택 시 GUI 로 제공하기 위한 포스팅을 진행하려고 한다. https://cocoabba.tistory.com/56 [PYTHON] 네이버 부동산 상가 매물 크롤링하기(1/4) 앞선 포스팅에 이어 약 1년이 지난 시점에 관련 질문이 있는 듯 하여 각 과정을 아래와 같은 단계로 포스팅하려고 합니다. https://cocoabba.tistory.com/42 [PYTHON] 네이버 부동산 상가 매물 크롤링하기 개 cocoabba.tistory.com https://cocoabba.tistory.com/57 ..
앞선 포스팅에서 python을 이용하여 네이버 부동산 상가 매물 크롤링을 하기 위한 두번째 단계로 개발자도구를 활용하여 PC가 아닌 모바일 웹 페이지에 접근하여 PC에서 요청 시 발생하는 정보보다 간소화 된 데이터를 확인하면서 실제 필요 데이터를 확인하기 위한 요청메시지를 구성하는 단계까지 확인하였다. https://cocoabba.tistory.com/57 [PYTHON] 네이버 부동산 상가 매물 크롤링하기(1/6) 앞선 포스팅에 이어 약 1년이 지난 시점에 관련 질문이 있는 듯 하여 각 과정을 아래와 같은 단계로 포스팅하려고 합니다. https://cocoabba.tistory.com/42 [PYTHON] 네이버 부동산 상가 매물 크롤링하기 개 cocoabba.tistory.com 1. 개발자 도구를..
앞선 포스팅에서 파이선을 이용하여 네이버 부동산 상가 매물 크롤링을 하기 위한 첫 단계로 개발자도구를 활용하여 PC 웹 페이지에 접근하여 과정 별 데이터를 확인하였다. 원하는 데이터가 json 형태로 보이는 것은 확인하였으나 원하는 위치(지역)에 대해 요청을 적절히 하기 위한 데이터 구성 파악의 과정이 다소 어려운 것을 확인 할 수 있었다. https://cocoabba.tistory.com/56 [PYTHON] 네이버 부동산 상가 매물 크롤링하기(1/6) 앞선 포스팅에 이어 약 1년이 지난 시점에 관련 질문이 있는 듯 하여 각 과정을 아래와 같은 단계로 포스팅하려고 합니다. https://cocoabba.tistory.com/42 [PYTHON] 네이버 부동산 상가 매물 크롤링하기 개 cocoabba...
앞선 포스팅에 이어 약 1년이 지난 시점에 관련 질문이 있는 듯 하여 각 과정을 아래와 같은 단계로 포스팅하려고 합니다. https://cocoabba.tistory.com/42 [PYTHON] 네이버 부동산 상가 매물 크롤링하기 개인적으로 대학교 시절 컴퓨터 공학과를 나왔다는 점, 그 동안 개발 업무를 해오진 않았지만 대학교 시절이 기억을 되새기면 최근 파이썬 스크립트 작성에 재미를 붙이고 있는 중에 있다. 그 cocoabba.tistory.com 1. 개발자 도구를 활용한 웹페이지에 대한 분석 -> PC 웹 페이지에 대한 분석 2. 개발자 도구를 활용한 웹페이지에 대한 분석 -> 모바일 페이지에 대한 분석 3. 분석한 데이터를 활용한 페이지 요청 : 그룹(단지) 정보 / 물건정보 추출 4. Tkint..
개인적으로 대학교 시절 컴퓨터 공학과를 나왔다는 점, 그 동안 개발 업무를 해오진 않았지만 대학교 시절이 기억을 되새기면 최근 파이썬 스크립트 작성에 재미를 붙이고 있는 중에 있다. 그 중에 크롤링에 재미를 붙이게 되었고, 특히 다른 측면에 관심을 가지게 된 부동산과의 조합을 생각하게 되었으며 부동산 중에 제 관심은 바로 "상가"!! 제대로 된 상가의 시세를 알기 위해서는 전반적인 주변의 시세를 함께 알아야 매수하고자 하는 물건의 가치가 주변의 기준 대비 높게 평가되어 있는지 낮게 평가되어 있는지 알 수 있다. 하지만, 근처 매물을 검색해보면 수백개의 매물이 검색되며, 각각의 매물에서 제공하는 정보또한 굉장히 많다. 한 지역만 조사하려고 해도 몇시간을 소모해야 하는 비용이 발생함에 따라 이를 자동화 하기..
1. 네이버 주식 시가총액 목록 가져오기 (https://finance.naver.com/sise/sise_market_sum.nhn) 2. 기업 별 상세 재무 데이터 가져오기 (https://finance.naver.com/item/main.nhn?code=기업코드) - def getDataOfParam(param) 3. Python Dictionary 사용하여 데이터 정리 4. 원하는 데이터 지표 추출 (매출액, 영업이익, 당기순이익, ROE, PER, PBR) - def printRecommendedItems(stock): 5. 추출 데이터 메일로 자동 전송하기 - def sendEmailfunc(text): 의 5단계를 통해서 네이버 주식정보 가져오는 방법을 포스팅 하려고 한다. 두번째 기업 별 ..
간단한 JOB 일거라고 생각했지만, 은근히 시간이 걸렸던 작업이였다. 코로나 시국에 맞춰서 다른 개미들과 같이 주식을 시작하면서, 투자할 곳을 조금 더 쉽게 선정할 수 있는 프로그램을 만들고 싶었다. 첫 번째 목표는 코스피에 상장사 중 시가총액 순으로 모든 회사의 재무데이터를 가져오고자 했다. https://finance.naver.com/sise/sise_market_sum.nhn 에서 기업의 정보를 가져오긴 하지만, 아래와 같이 최대 6개까지 설정이 가능하여 원하는 모든 데이터를 선택하려면 몇번의 재요청이 필요한 상황이다. 그래서 각각의 기업을 클릭했을 때 볼 수 있는 기업 상세 페이지를 참고하였다. 기업별 상세 페이지에서는 아래와 같이 매출액/영업이익/당기순이익 등 다양한 재무 데이터를 최근 3년간..
- Total
- Today
- Yesterday
- 매물
- 크몽
- Excel
- 부동산
- matplotlib
- beautifulsoup
- 대항력있는 임차인
- 네이버 부동산
- 네이버 주식
- 크롤링
- 파이썬
- 네이버
- 경매
- 오피스텔
- REST API
- json
- DICTIONARY
- 경제적 자유
- 단지정보
- tkinter
- 상가
- 네이버쇼핑
- PYTHON
- pyplot
- 평형정보
- Export
- cortarNo
- eum.go.kr
- 전국
- pandas
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |