파이썬(14)
-
[Django] 튜토리얼 따라가기 ② polls 앱 만들기
app 블로그나 공공 기록물을 위한 데이터베이스나, 간단한 설문조사 앱과 같은 특정한 기능을 수행하는 웹 어플리케이션설문조사(polls) 어플리케이션 만들기(1) 어플리케이션 생성$ python manage.py startapp polls (2) 첫 번째 VIEW 작성polls/views.py12345from django.shortcuts import renderfrom django.http import HttpResponse# Create your views here.def index(request): return HttpResponse("Hello, world. You're at the polls index.")cs> index view 요청이 있을 경우 Reponse를 반환한다. 여기서는 "Hell..
2019.01.29 -
[Django] SECRET_KEY (작성 중..)
SECRET_KEY- 암호화 서명을 제공하는데 사용되며 SECRET_KEY 값이 없을 경우 장고는 실행되지 않는다.- django-admin startproject 명령으로 프로젝트 생성 시 자동으로 키 값이 생성됨.- 보안과 직관된 데이터이므로 외부에 노출되지 않도록 각별한 주의하 필요하다. 어디에 이용되지?사용 중인 django.contrib.sessions.backends.cache 외에 다른 백엔드 세션이나 기본 CookieStorage 또는 FallbackStorage 사용중인 모든 메세지들모든 PasswordResetView 토큰들다른 키가 제공되기 전까지 암호화 서명에 사용 settings.py에서 SECRET_KEY 분리환경변수로 SECRET_KEY 가져오기비밀파일 패턴으로 SECRET_K..
2019.01.24 -
문자열 치환 함수 maketrans()
SyntaxSTRING.maketrans( input_tab, output_tab ) input_tab 안에 있는 문자열들을 output_tab 문자열과 같은 위치의 문자와 매칭시킨 해석 테이블을 반환하는 메소드 Parametersinput_tab : 원래 문자열 모음output_tab : 바꿀 문자열 모음 Returnstring.translate( table ) 메소드에서 사용될 traslation table을 반환 Sampledef transChar(str): in_c= "abcdefghijklmnopqrstuvwxyz" out_c = "cdefghijklmnopqrstuvwxyzab" plain = str.maketrans(in_c, out_c) print(str.translate(plain))알파..
2018.12.24 -
[Raspberry PI 3] GPIO 사용하기
GPIO( General Purpose Input/Output )장치를 특정 GPIO 핀에 연결하고 , 소프트웨어를 통해 장치를 제어할 수 있다. GPIO Zero 와 PRi.GPIO 'GPIO Zero' 는 라즈비안 이미지에 기본적으로 포함되어 있는 패키지이다. 1. GPIO Zero(1) Import 123456from gpiozero import Buttonnumber = 2button = Button(number) import gpiozerobutton = gpiozero.Button(number)cs 1-3 : gpiozero 의 Button 클래스만 import하는 방법5-6 : gpiozero 전체를 import하는 방법 (2) Pin NumberingRPi.GPIO 라이브러리는 Board ..
2018.09.27 -
Scrapy 구조
1. Scrapy의 구조 scrapy startproject 프로젝트명spiders 디렉터리 : 실제로 Crawling 하는 로직들이 들어가있는 디렉터리items.py : 크롤링 대상의 게시물에 대한 항목들pipelines.py : 크롤링 이후 검색된 데이터를 어떻게 처리할지 정의.settings.py : 스크래피 프로젝트 전체에 대한 설정 ex) 로그파일, 파이프라인 순서 결정 2. Scrapy 동작 (1) items 정의 ┌ 단순한 String List(2) 시작 URL 지정 ( start_requests | start_urls )└ callback 함수 지정 가능 : parse()(3) callback 함수 정의selector(xparh, css)를 이용하여 데이터를 선택(4) Pipeline을 이..
2018.07.20 -
웹 데이터의 저작권 & 사이트 정책 확인
로봇 배제 표준 (robots.txt)웹 크롤러같은 봇들의 접근을 제어하기 위한 규약.웹 사이트 최상위 경로에 위치해야 한다.robots.txt 명령은 지침에 지나지 않으므로, 크롤러 등에 강요할 수 없다. 1. 용도① 비이지미 파일(웹 페이지)robots.txt는 크롤링 트래픽 제어 목적으로만 사용되어야 한다. ②이미지 파일구글 검색 결과에서 이미지 파일이 표시되지 않도록 함.(이미지로 연결하지 못하도록 하는 것은 아님) ③리소스 파일 2. 형식User-agent: 제어할 봇의 agentAllow: 경로Disallow: 경로 모든 문서에 대해 접근 차단User-agent: *Disallow: / 모든 문서에 대해 접근 허가User-agent: *Allow: / [출처] 나무위키/robots.txt
2018.07.19