2016-01-01から1年間の記事一覧

パーフェクトjavaを読む

18章終了

言語処理100本ノック

07. テンプレートによる文生成 引数x, y, zを受け取り「x時のyはz」という文字列を返す関数を実装せよ.さらに,x=12, y="気温", z=22.4として,実行結果を確認せよ. def generation_string(x,y,z): return "{x}時の{y}は{z}".format(x=x,y=y,z=z) generati…

パーフェクトjavaを読む

17章まで終了

言語処理100本ノック

06. 集合¶ "paraparaparadise"と"paragraph"に含まれる文字bi-gramの集合を,それぞれ, XとYとして求め,XとYの和集合,積集合,差集合を求めよ.さらに,'se'というbi-gramがXおよびYに含まれるかどうかを調べよ. def n_gram(s,n): sentence = s.split() r…

パーフェクトjavaを読む

13章まで終了

言語処理100本ノック

05. n-gram 与えられたシーケンス(文字列やリストなど)からn-gramを作る関数を作成せよ.この関数を用い,"I am an NLPer"という文から単語bi-gram,文字bi-gramを得よ def n_gram(s,n): sentence = s.split() result = [] len_sentence = len(sentence) f…

言語処理100本ノック

04. 元素記号 "Hi He Lied Because Boron Could Not Oxidize Fluorine. New Nations Might Also Sign Peace Security Clause. Arthur King Can."という文を単語に分解し,1, 5, 6, 7, 8, 9, 15, 16, 19番目の単語は先頭の1文字,それ以外の単語は先頭に2文字…

言語処理100本ノック

04. 元素記号 "Hi He Lied Because Boron Could Not Oxidize Fluorine. New Nations Might Also Sign Peace Security Clause. Arthur King Can."という文を単語に分解し,1, 5, 6, 7, 8, 9, 15, 16, 19番目の単語は先頭の1文字,それ以外の単語は先頭に2文字…

言語処理100本ノック

02. 「パトカー」+「タクシー」=「パタトクカシーー」 「パトカー」+「タクシー」の文字を先頭から交互に連結して文字列「パタトクカシーー」を得よ. str1 = "パトカー" str2 = "タクシー" str = [] for s1,s2 in zip(str1,str2): str.append(s1) str.ap…

パーフェクトjavaを読む

5章終了

パーフェクトjavaを読む

4章終了

言語処理100本ノック

第1章: 準備運動 01. 「パタトクカシーー」 「パタトクカシーー」という文字列の1,3,5,7文字目を取り出して連結した文字列を得よ. str = "パタトクカシーー" print(str[0::2])

言語処理100本ノック

第1章: 準備運動 00. 文字列の逆順 文字列"stressed"の文字を逆に(末尾から先頭に向かって)並べた文字列を得よ. str = "stressed" length= len(str) rev = [] for i in range(length): rev.append(str[length-i-1]) print("".join(rev)) desserts

パーフェクトjavaを読む

1,2,3章終了

パーフェクトjavaを読む

install http://www.oracle.com/technetwork/java/downloads/jdk8-downloads-2133151.html でlinux x64 jdk-8u101-linux-x64.tar.gzをダウンロードした tar zxvf jdk-8u101-linux-x64.tar.gzで解凍したらjdk1.8.0_101フォルダができた。 mv jdk1.8.0_101 /us…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

Sqlite3を使ってみる import sqlite3 conn = sqlite3.connect('test.sqlite') c = conn.cursor() c.execute('''CREATE TABLE items (name text, price real)''') fruit = [('Banana', 300), ('Apple', 150), ('Mango', 250) ] c.executemany('INSERT INTO st…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

4章03 yaml形式を読み込む 元のyamlファイルの中身 title: Fruits Database version: 3.2 price-define: - &one-coin 100 - &two-coin 200 - &three-coin 300 items: - name: Tomato price: three-coin - name: Banana price: two-coin - name: Apple price:…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

4章03 json形式のファイルをpython形式にする import json #ファイルを読み込んでjson形式に変換 fp = open("test.json",encoding="UTF-8") js = json.dumps(fp.read()) #もとに戻す print(json.loads(js)) <結果> { "title" : "Fruits Database", "versio…

統計学入門

4.6ガリレイの問題 p9 = [] p10 = [] for x in range(1,6+1): for y in range(1,6+1): for z in range(1,6+1): if (x + y + z) == 9: p9.append((x,y,z)) if (x + y + z) == 10: p10.append((x,y,z)) print("p9= ",len(p9)) for p in p9: print(p) print("p1…

統計学入門

練習問題 4-1 4回サイコロを投げて、6の目が少なくとも1つ以上でる確率と1回もでない確率 import scipy.misc as scm import scipy.special as scs #4回サイコロを振って6がでない確率 print((5./6)**4) #6の目が少なくとも1つ以上でる確率 print(1-(5.0…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

画像キャプチャを撮る import webbrowser import pyautogui import time webbrowser.open('google.com') time.sleep(2) s = pyautogui.screenshot() s.save("screenshot.png")

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(週間天気予報RSSを取得してみよう) from bs4 import BeautifulSoup import requests url = "http://rss.weather.yahoo.co.jp/rss/days/13.xml" r = requests.get(url) soup = BeautifulSoup(r.text.encode(r.encoding),"xml") ch = soup.find_all('channe…

統計学入門

3章練習問題 練習問題3.1 import numpy as np import matplotlib.pyplot as plt data = np.array([[41.4,76.3,59.2,51.8,52.5,53.2,62.4,55.0,57.7,63.2,37.5,48.5,32.4,20.5,47.9,68.9,68.5,52.5,63.3,58.8,59.7,48.4,40.7, 51.0,50.9,34.3,25.8,32.1,34.4…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(Node.jsでXMLを扱う方法) BeautifulSoupでxmlをパースするには第二引数に"xml"を指定する from bs4 import BeautifulSoup xml_str = "<fruits shop='AAA'>" + "<item price='140'>Banana</item>" + "<item price='200'>Apple</item>" + "</fruits>" soup = BeautifulSoup(xml_str,"xml") print(soup.prettify()) <結果>

統計学入門読み始め

P57 図3.20の自己相関係数計算 %matplotlib inline import numpy as np import matplotlib.pyplot as plt data = np.array([4.96,11.15,14.37,9.25,1.01,-0.38,7.49,16.83,11.21,3.11, 3.03,8.7,16.47,14.29,1.89,-7.99,-5.91,6.58,12.30,14.35, 4.65,-1.31,…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(画像ファイルを抽出してみよう) from bs4 import BeautifulSoup import requests from urllib.parse import urljoin import urllib.request from os import path url = "http://ja.wikipedia.org/wiki/イヌ" r = requests.get(url) soup = BeautifulSoup(r.…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(相対URLを絶対URLに変換しよう) 簡単な例 from urllib.parse import urljoin base_url = "http://kujirahand.com/url/test/index.html" abs_url = urljoin(base_url,"a.html") print(abs_url) base_url = "http://kujirahand.com/url/test/index.html" ab…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(2章 HTML ファイルのリンクを抽出してみよう) from bs4 import BeautifulSoup import requests r = requests.get(url) soup = BeautifulSoup(r.text.encode(r.encoding)) aref = soup.find_all('a') for a in aref: print(str(a.string) + " : " + str(a…

「JS+Node.jsによるWebクローラーネットエージェント」をpythonで実装

(2章 HTML ファイルをダウンロードしてみよう) from bs4 import BeautifulSoup import requests url = "http://www.aozora.gr.jp/index_pages/person81.html" r = requests.get(url) soup = BeautifulSoup(r.text.encode(r.encoding)) print(soup.find("b…

Pythonデータサイエンスクックブック

(2順目) レシピ15.1 完了 レシピ15.2 2項 4項 5項 6項 8項 Mのままだとエラーになるがprint(M)とするとちゃんと表示する。 9項 レシピ15.3 2項 3項 4項 5項 6項 7項 8項 レシピ15.4 3項 4項 5項 6項 7項 8項 9項 レシピ15.5 6項 7項 8項 レシピ15.6 3項 5,7…