2016-06-01から1ヶ月間の記事一覧

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

4章03 yaml形式を読み込む 元のyamlファイルの中身 title: Fruits Database version: 3.2 price-define: - &one-coin 100 - &two-coin 200 - &three-coin 300 items: - name: Tomato price: three-coin - name: Banana price: two-coin - name: Apple price:…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

4章03 json形式のファイルをpython形式にする import json #ファイルを読み込んでjson形式に変換 fp = open("test.json",encoding="UTF-8") js = json.dumps(fp.read()) #もとに戻す print(json.loads(js)) <結果> { "title" : "Fruits Database", "versio…

統計学入門

4.6ガリレイの問題 p9 = [] p10 = [] for x in range(1,6+1): for y in range(1,6+1): for z in range(1,6+1): if (x + y + z) == 9: p9.append((x,y,z)) if (x + y + z) == 10: p10.append((x,y,z)) print("p9= ",len(p9)) for p in p9: print(p) print("p1…

統計学入門

練習問題 4-1 4回サイコロを投げて、6の目が少なくとも1つ以上でる確率と1回もでない確率 import scipy.misc as scm import scipy.special as scs #4回サイコロを振って6がでない確率 print((5./6)**4) #6の目が少なくとも1つ以上でる確率 print(1-(5.0…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

画像キャプチャを撮る import webbrowser import pyautogui import time webbrowser.open('google.com') time.sleep(2) s = pyautogui.screenshot() s.save("screenshot.png")

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(週間天気予報RSSを取得してみよう) from bs4 import BeautifulSoup import requests url = "http://rss.weather.yahoo.co.jp/rss/days/13.xml" r = requests.get(url) soup = BeautifulSoup(r.text.encode(r.encoding),"xml") ch = soup.find_all('channe…

統計学入門

3章練習問題 練習問題3.1 import numpy as np import matplotlib.pyplot as plt data = np.array([[41.4,76.3,59.2,51.8,52.5,53.2,62.4,55.0,57.7,63.2,37.5,48.5,32.4,20.5,47.9,68.9,68.5,52.5,63.3,58.8,59.7,48.4,40.7, 51.0,50.9,34.3,25.8,32.1,34.4…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(Node.jsでXMLを扱う方法) BeautifulSoupでxmlをパースするには第二引数に"xml"を指定する from bs4 import BeautifulSoup xml_str = "<fruits shop='AAA'>" + "<item price='140'>Banana</item>" + "<item price='200'>Apple</item>" + "</fruits>" soup = BeautifulSoup(xml_str,"xml") print(soup.prettify()) <結果>