2016-05-01から1ヶ月間の記事一覧

統計学入門読み始め

P57 図3.20の自己相関係数計算 %matplotlib inline import numpy as np import matplotlib.pyplot as plt data = np.array([4.96,11.15,14.37,9.25,1.01,-0.38,7.49,16.83,11.21,3.11, 3.03,8.7,16.47,14.29,1.89,-7.99,-5.91,6.58,12.30,14.35, 4.65,-1.31,…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(画像ファイルを抽出してみよう) from bs4 import BeautifulSoup import requests from urllib.parse import urljoin import urllib.request from os import path url = "http://ja.wikipedia.org/wiki/イヌ" r = requests.get(url) soup = BeautifulSoup(r.…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(相対URLを絶対URLに変換しよう) 簡単な例 from urllib.parse import urljoin base_url = "http://kujirahand.com/url/test/index.html" abs_url = urljoin(base_url,"a.html") print(abs_url) base_url = "http://kujirahand.com/url/test/index.html" ab…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(2章 HTML ファイルのリンクを抽出してみよう) from bs4 import BeautifulSoup import requests r = requests.get(url) soup = BeautifulSoup(r.text.encode(r.encoding)) aref = soup.find_all('a') for a in aref: print(str(a.string) + " : " + str(a…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(2章 HTML ファイルをダウンロードしてみよう) from bs4 import BeautifulSoup import requests url = "http://www.aozora.gr.jp/index_pages/person81.html" r = requests.get(url) soup = BeautifulSoup(r.text.encode(r.encoding)) print(soup.find("b…

Pythonデータサイエンスクックブック

(2順目) レシピ15.1 完了 レシピ15.2 2項 4項 5項 6項 8項 Mのままだとエラーになるがprint(M)とするとちゃんと表示する。 9項 レシピ15.3 2項 3項 4項 5項 6項 7項 8項 レシピ15.4 3項 4項 5項 6項 7項 8項 9項 レシピ15.5 6項 7項 8項 レシピ15.6 3項 5,7…

Pythonデータサイエンスクックブック

(2順目) レシピ14.3 対象となるデータはここからダウンロードする。 debian.zipファイルを展開してipythonのフォルダに置く。 debian.zipの中はapt.jsonファイルがありjson形式のデーターが延々あった。 { "libgcc1": [ "gcc-4.6-base", "libc6", "multiar…

Pythonデータサイエンスクックブック

(2順目) レシピ14.1 NetworkxはすでにAnacondにinstallすみ。 2項 adjリストの中身は [(0, 1), (1, 2), (2, 3), (3, 4), (4, 5), (5, 6), (6, 7), (7, 8), (8, 9), (9, 0), (0, 2), (1, 3), (2, 4), (3, 5), (4, 6), (5, 7), (6,8), (7, 9), (8, 0), (9, …