Home
YHole
Cancel

crawling-task-7

api를 이용해서 기사 정렬 페이지 만들기 main.py import requests from flask import Flask, render_template, request base_url = "http://hn.algolia.com/api/v1" # This URL gets the newest stories. new = f"&#123...

crawling-task-6

알바 정보 csv로 만들기 import os import csv import requests from bs4 import BeautifulSoup os.system("clear") alba_url = "http://www.alba.co.kr" home_res = requests.get(alba_url) links = BeautifulSoup(ho...

crawling-task-5

환전 금액 알아보기 import os import requests from bs4 import BeautifulSoup os.system("clear") """ Use the 'format_currency' function to format the output of the conversion format_currency(AMOUNT, CURREN...

crawling-task-4

국가 정보 취득 및 리스트화 import os import requests from bs4 import BeautifulSoup os.system("clear") url = "https://www.iban.com/currency-codes" res = requests.get(url) tbody = BeautifulSoup(res.text, "ht...

crawling-task-3

주소가 연결되는지 확인 import requests def checking(): print('Welcome to IsItDown.py!') urls = list(map(str, input('Please write a URL or URLs you want to check.( separated by comma)\n').split(','))) ...

crawling-task-2

함수 선언 """ Again, the code is broken, you need to create 4 functions. - add_to_dict: Add a word to a dict. - get_from_dict: Get a word from inside a dict. - update_word: Update a word inside ...

crawling-task-1

flask로 웹 만들기 main.py from flask import Flask, render_template, request, redirect, send_file # 만든 부분 불러오기 from scrapper import get_jobs from exporter import save_to_file app = Flask("SuperScrapp...

Bundle

Bundle 참조 관계가 있는 모듈을 하나로 묶는 것 (의존성은 유지됨) 효과 모든 모듈을 로르하기 위해 검색하는 시간이 단축 하나의 js 파일에 모듈 A, B 등등이 묶인다 사용하지 않는 코드를 제거해 준다 파일 크기를 줄여준다. 파일 크기가 감소, 사용자 이용에도 도움이 된다 ...

Module

Module 프로그램을 구성하는 내부 코드가 기능 별로 나뉘어 있는 것 모듈을 인식하는 Module System 과 키워드가 필요하다 표준 CommonJS (Node.js) ESM (ECMAScript 2015) 키워드 내보내기 한곳으로 내보내기 개별적으로 내보내기 가져...

html-outline

HTML5 outline(의미 구조) 테그마다 다른 역할 그룹핑을 하지만 의미구조에 영향을 미치지 않는 태그 <header> 제목, 네비, 로고, 목차, 검색폼을 그룹핑 <main> 페이지내의 가장 주요한 부분을 그룹핑 한번만 사용 <footer> 주요 내용과 관련된 링크, 저작 관련 정보 그룹핑 ...