일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 오버라이딩
- __sub__
- items()
- HTML
- Database
- 파이썬
- __annotations__
- mro()
- fnmatch
- inplace()
- locals()
- __getitem__
- node.js
- MySQL
- __len__
- randrange()
- remove()
- discard()
- glob
- count()
- decode()
- shuffle()
- choice()
- MySqlDB
- shutil
- JS
- CSS
- View
- zipfile
- fileinput
- Today
- Total
목록분류 전체보기 (132)
흰둥이는 코드를 짤 때 짖어 (왈!왈!왈!왈!왈!왈!왈!왈!왈!왈!왈!)

1. 머신러닝 인공지능: 인공(Artificial) + 지능(Intelligence) 개발자에 의한 인동지능, 데이터에 의한 인공지능 머신러닝: 데이터를 기반으로 학습(learning)하는 기계(machine) 딥러닝: 깊은(deep) 신경망 구조의 머신러닝 1-1. 배경 과거 컴퓨터로 데이터를 읽어들이고, 데이터 안에서 특징을 학습하여 패턴을 찾아내는 작업 -> 패턴인식 데이터를 대향으로 수집 처리 할 수 있는 환경이 갖춰짐으로 할 수 있는 일들이 많아짐 머신러닝은 데이터로부터 특징이나 패턴을 찾아내는 것이기 때문에 데이터가 가장 중요함 1-2. 정의 인공지능의 한 분야로 컴퓨터가 학습할 수 있도록 하는 알고리즘과 기술을 개발하는 분야 "무엇(x)으로 무엇(y)을 예측하고 싶다"의 f(함수)를 찾아내는..

과제1 바나프레소(https://banapresso.com/) 매장명, 주소를 크롤링해서 엑셀로 내보내기 In [42]: !pip install pandas Requirement already satisfied: pandas in c:\users\acer\appdata\local\programs\python\python38\lib\site-packages (2.0.2) WARNING: You are using pip version 20.2.1; however, version 23.1.2 is available. You should consider upgrading via the 'c:\users\acer\appdata\local\programs\python\python38\python.exe -m pip..

크롤링 과제 지니 차트 200위까지 크롤링 반복문을 사용하여 크롤링 수집한 데이터를 데이터프레임으로 저장 엑셀로 출력 과제는 github로 내보내기 In [ ]: import requests from bs4 import BeautifulSoup import pandas as pd In [ ]: header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64)'} rank = 0 chart = [] for i in range(1, 5): site = f'https://www.genie.co.kr/chart/top200?ditc=D&ymd=20230601&hh=14&rtm=Y&pg={i}' request = requests.get(site, headers ..

1. 이미지 수집하기 픽사베이 In [1]: import chromedriver_autoinstaller import time from selenium import webdriver from selenium.webdriver.common.by import By from urllib.request import Request, urlopen In [3]: driver = webdriver.Chrome() driver.implicitly_wait(3) url = 'https://pixabay.com/ko/images/search/바다/' driver.get(url) time.sleep(3) In [5]: image_xpath = '/html/body/div[1]/div[1]/div/div[2]/div[3]/d..

In [13]: import chromedriver_autoinstaller import time from selenium import webdriver from selenium.webdriver.common.by import By # XPath 상수화 In [14]: driver = webdriver.Chrome() 1. 로그인 하기 In [15]: driver.implicitly_wait(3) url='https://www.instagram.com/' driver.get(url) id = '아이디' pw = '비밀번호' # /html/body/div[2]/div/div/div[1]/div/div/div/div[1]/section/main/article/div[2]/div[1]/div[2]/form/d..

1. 셀레니움(Selenium) 셀레니움은 브라우저를 컨트롤 할 수 있도록 지원하는 라이브러리 In [1]: !pip install selenium Collecting selenium Downloading selenium-4.9.1-py3-none-any.whl (6.6 MB) Collecting urllib3[socks]=1.26 Downloading urllib3-2.0.2-py3-none-any.whl (123 kB) Collecting certifi>=2021.10.8 Downloading certifi-2023.5.7-py3-none-any.whl (156 kB) Collecting trio-websocket~=0.9 Downloading trio_websocket-0.10.2-py3-none-..

크롤링(Crawling): 인터넷의 데이터를 활용하기 위해 정보들을 분석하고 활용할 수 있도록 수집하는 행위 스크레이핑(Scraping): 크롤링 + 데이터를 추출해서 가공하는 최종 목표 1. Basic English Speaking In [ ]: import requests from bs4 import BeautifulSoup In [ ]: site = 'https://basicenglishspeaking.com/daily-english-conversation-topics/' request = requests.get(site) print(request) # print(request.text) In [ ]: soup = BeautifulSoup(request.text) In [ ]: divs = soup..

In [ ]: import pandas as pd In [ ]: df = pd.read_csv('/content/drive/MyDrive/KDT/2. 데이터분석/소상공인시장진흥공단_상가(상권)정보_서울_202303.csv') :1: DtypeWarning: Columns (2) have mixed types. Specify dtype option on import or set low_memory=False. df = pd.read_csv('/content/drive/MyDrive/KDT/2. 데이터분석/소상공인시장진흥공단_상가(상권)정보_서울_202303.csv') In..