일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- to shp
- 셀레니움
- 크롤링
- Python
- 괄호 문제
- 웹페이지
- string to list
- geoDataFrame
- Selenium
- plotly dash
- 알고리즘
- python buildpacks
- Merge Repositories
- 인스타그램
- 혁신성장부문
- colab runtime
- NLP
- flask
- Crawling
- 플라스크
- Chat-GPT
- geopandas
- 백준
- 파이썬
- kmeans
- 코랩 런타임
- 2164 카드2
- convert to shp
- 해시태그
- clustering
- Today
- Total
목록파이썬 (54)
코딩코딩코딩
1. Selenium 기반 웹 크롤링 기법 2. 해시태그, 좋아요 등의 정보 크롤링 3. 인스타그램 해시태그와 좋아요 수를 크롤링한 후 각자 개수를 비교해서 어떤 영향을 미치는지 확인할 것 - 키워드 네트워크 분석기법 활용 # Selenium Basic command 1. driver.get('url') : 페이지 접속 2. elem = driver.find_element_by_name('q') : 커서를 검색어 입력 부분에 위치시킴 - find_by_class_name or find_by_xpath 등도 가능 (xpath는 html 검사 시 우클릭>xpath copy로 복사 가능 3. elem.clear() : 검색어 부분 입력내용 삭제 4. elem.send_keys('내용') : 내용 입력 5. e..
- 단순 복사는 복사된 데이터에 변형을 주면 원본데이터에도 변형이 일어납니다. - 얕은 복사는 2차원 리스트를 예로 들었을 때, 단순 값으로 배정된 원소의 경우 원본데이터에 영향을 미치지 않지만 2차원 리스트 내에 있는 원소에 변형을 줄 경우 원본데이터에 영향을 미칩니다. 2차원 원소의 경우 리스트 형태만 복사했다고 생각하면 됩니다. - 깊은 복사는 얕은 복사에서 원본데이터에 영향을 주었던 2차원 원소 역시도 복사가 되어 전혀 영향을 주지 않습니다. 예제 코드 > 1. 단순 복사 x = [1,2,3] y = x print(y) # [1,2,3] 출력 y[2] = 300 print(x,y) # [1,2,300], [1,2,300] 출력 2. 얕은 복사 a = [4,[1,2,3],6] # 2차원 리스트 b ..
https://hansuho113.tistory.com/4 파이썬 네이버 뉴스 일일 기사 크롤링 - 2 지난번 크롤링 했던 내용들을 바탕으로 기사 간 클러스터링 진행 제목 + 요약내용 리스트를 Konlpy 를 통해 명사화 시킨 후 클러스터링을 진행할 예정입니다. TitDesc_okt = [] for item in TitDesc_list: item_n hansuho113.tistory.com 이전 글에 이어서 클러스터별 대표 기사를 추출하는 작업을 진행할 예정 * 크롤링 날짜를 바꾸고 실행해서 클러스터링 기사 내용이 조금 다릅니다. cluster_centers = km_cluster.cluster_centers_ print('cluster_centers shape : ', cluster_centers.sh..
지난번 크롤링 했던 내용들을 바탕으로 기사 간 클러스터링 진행 제목 + 요약내용 리스트를 Konlpy 를 통해 명사화 시킨 후 클러스터링을 진행할 예정입니다. TitDesc_okt = [] for item in TitDesc_list: item_nouns = ' '.join(okt.nouns(item)) TitDesc_okt.append(item_nouns) tfidf_vectorizer = TfidfVectorizer() tfidf_matrix_okt = tfidf_vectorizer.fit_transform(TitDesc_okt) TitDesc_okt[:3] #Vectorization okt, komoran, kkma, Hannanum등의 tokenizing 모델들이 있지만 개인적으로 모두 진행해본 ..
네이버 뉴스 키워드 일일 기사 크롤링 - 키워드와 날짜를 지정하고 크롤링하는 함수를 만들고 해당 검색의 페이지가 끝날 때까지 크롤링 진행 import pandas as pd import numpy as np import feedparser from bs4 import BeautifulSoup as bs import urllib import urllib.request as req import requests from konlpy.tag import Kkma, Okt, Komoran okt = Okt() from konlpy.utils import pprint import warnings warnings.filterwarnings("ignore") href_list = [] # 기사 주소가 들어갈 리스트 T..
https://tfhub.dev/google/faster_rcnn/openimages_v4/inception_resnet_v2/1 TensorFlow Hub tfhub.dev def display_image(image): fig = plt.figure(figsize=(20, 15)) plt.grid(False) plt.imshow(image) def download_and_resize_image(url, new_width=256, new_height=256, display=False): _, filename = tempfile.mkstemp(suffix=".jpg") response = urlopen(url) image_data = response.read() image_data = BytesIO(ima..