일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- Linux
- 유니티
- 함수
- node.js
- python
- flutter
- mssql
- urllib
- MS-SQL
- port
- PER
- 날짜
- 리눅스
- PyQt5
- GIT
- swift
- sqlite
- PyQt
- IOS
- MySQL
- 라즈베리파이
- tensorflow
- Unity
- Excel
- ubuntu
- ASP
- 다이어트
- pandas
- javascript
- 맛집
목록python (161)
아미(아름다운미소)
- flask소스를 올릴 폴더생성 및 권한부여$sudo mkdir miniblog $sudo chmod -R 775 /home/pi/WWW/miniblog $sudo chown -R pi:www-data /home/pi/WWW/miniblog - flask를 구동하기 위한 필수라이브러리 설치 $sudo apt-get update $sudo apt-get upgrade $sudo apt-get install apache2 libapache2-mod-wsgi python-setuptools python-flask $sudo apt-get install libapache2-mod-wsgi - 포트추가변경 $sudo nano /etc/apache2/ports.conf # If you just change the..
py2exe와 py2app 둘 다 distutils의 확장이기 때문에 다음과 같이 함께 사용할 수도 있습니다. - setup.py # -*- coding: utf-8 -*- from setuptools import setup import sys if sys.platform == "win32": # python setup.py py2exe import py2exe platform_options = { "windows": [{ "script": "run.py", "icon_resources": [(1, "window_icon.ico")], "dest_base": "dodo" }], "zipfile": None, "setup_requires": ["py2exe"], "options": { "py2exe": {..
py2app - setup.py # -*- coding: utf-8 -*- from setuptools import setup # name, description, version등의 정보는 일반적인 setup.py와 같습니다. setup(name="test_py2xxx", description="py2app test application", version="0.0.1", # 설치시 의존성 추가 setup_requires=["py2app"], app=["run.py"], options={ "py2app": { # PySide 구동에 필요한 모듈들은 포함시켜줍니다. "includes": ["PySide.QtCore", "PySide.QtGui", "PySide.QtWebKit", "PySide.QtNetwo..
py2exe - setup.py # -*- coding: utf-8 -*- from setuptools import setup import py2exe # name, description, version등의 정보는 일반적인 setup.py와 같습니다. setup(name="test_py2xxx", description="py2exe test application", version="0.0.1", windows=[{"script": "run.py"}], options={ "py2exe": { # PySide 구동에 필요한 모듈들은 포함시켜줍니다. "includes": ["PySide.QtCore", "PySide.QtGui", "PySide.QtWebKit", "PySide.QtNetwork", "PySi..
- 소스 코드(3.0기준)#_*_ coding:utf8 _*_ import urllib.request from bs4 import BeautifulSoup fp = urllib.request.urlopen('http://info.finance.naver.com/marketindex/exchangeList.nhn') source = fp.read() fp.close() class_list = ["tit","sale"] soup = BeautifulSoup(source,'html.parser') soup = soup.find_all("td", class_ = class_list) money_data={} for data in soup: if soup.index(data)%2==0: data=data.get_..
JSON-RPC2.0 및 JSON-RPC1.0 전송 사양 구현. Python 2.6+, Python 3.3+, PyPy를 지원합니다. Django와 Flask를 옵션으로 지원합니다. Install (pip로 간단하게 설치가 가능합니다.) pip install json-rpc Quickstart 이것은 JSON-RPC 표준에서 많은 경우가 있기 때문에 라이브러리의 필수 부분입니다. 선택적인 백엔드뿐만 아니라 다양한 지원되는 파이썬 버전을 관리하기 위해 json-rpc은 tox를 사용합니다 tox Server(uses Werkzeug) from werkzeug.wrappers import Request, Response from werkzeug.serving import run_simple from json..
컴퓨터에 아파치나 IIS를 깔기에는 부담이 될때 파이썬이 있으면 간단한 웹서버로 웹페이지들을 테스트할 수 있습니다. 콘솔로 가서 웹 서버의 루트로 하고자하는 디렉토리로 가서 다음과 같이 실행하면 됩니다. * 이는 순전히 http 서버만을 지원해주며 추가적인 웹 언어는 지원하지 않습니다. Python 2.x 버전python -m SimpleHTTPServer 8000 Python 3.x 버전 python -m http.server 8000 : 뒤의 8000은 포트 번호이다. 그럼 다음과 같이 웹서버가 실행됩니다. : localhost:8000 이나 127.0.0.1:8000으로 접속하면 웹 서버 처럼 파일 시스템에 접근이 가능합니다. 테스트용으로 로컬에서 간단하게 사용하면 편해요.
프로그램용으로 환경설정 파일을 저장하거나 열람할 수 있으면 편리합니다. import os.path print os.path.expanduser('~') 이 방법은 윈도우즈에서도 작동함 합니다. 멋지죠! (사용자의 "Document and settings" 폴더를 가리키거나, 또는 사용자가 가지고 있다면 네트워크 폴더를 가리키기도 합니다.)
Python에는 requests라는 유명한 http request 라이브러리가 있습니다. 설치하기(pip로 간단하게 설치가 가능합니다.) pip install requests Requests는 정말 좋은 라이브러리이지만, html을 ‘의미있는’, 즉 Python이 이해하는 객체 구조로 만들어주지는 못합니다. 위에서 req.text는 python의 문자열(str)객체를 반환할 뿐이기 때문에 정보를 추출하기가 어렵습니다. 따라서 BeautifulSoup을 이용해야 합니다. 이 BeautifulSoup은 html 코드를 Python이 이해하는 객체 구조로 변환하는 Parsing을 맡고 있고, 이 라이브러리를 이용해 우리는 제대로 된 ‘의미있는’ 정보를 추출해 낼 수 있습니다. 설치하기 BeautifulSoup..
# encoding: utf-8 import codecs from collections import deque import urllib2, urlparse import socket from BeautifulSoup import BeautifulSoup def get_links(uri, startswith=""): """Returns list of referenced URIs (without duplicates) found in the document returned for the input URI""" results = set() try: page = urllib2.urlopen(uri) soup = BeautifulSoup(page) for link in soup.findAll('a'): # try: ..