Anki & 生成AIで最強の英単語帳を作る。
- やりたいこと
- 英単語を効率的に学習したい。
【育児おすすめグッズ】 | |
①キューブミルク | |
明治ほほえみのらくらくキューブがおすすめ! | |
・測っているうちにどれだけ入れたかわからなくなる | |
・粉をこぼす | |
・外出の時に自分で小分けにしないといけない | |
から解放されます。 | |
②70℃のお湯がすぐに出せるなにか | |
象印STAN.の電動ポットがデザイン&実用性的におすすめ! | |
以前はティファールだったので不便になるかと思ったけど全くそんなことはなかった。 |
#coding: utf8 | |
""" | |
1. Download this gist. | |
2. Get the MNIST data. | |
wget http://deeplearning.net/data/mnist/mnist.pkl.gz | |
3. Run this code. | |
python autoencoder.py 100 -e 1 -b 20 -v | |
Wait about a minute ... and get a vialization of weights. | |
""" |
$ docker-machine create -d virtualbox default |
from sklearn.ensemble import RandomForestClassifier | |
from sklearn.linear_model import LogisticRegression | |
from sklearn.cross_validation import train_test_split | |
from sklearn.metrics import accuracy_score, roc_auc_score | |
def score(model, X, y): | |
X_train, X_test, y_train, y_test = train_test_split(X, y) | |
model.fit(X_train, y_train) | |
pred_proba = model.predict_proba(X_test) |
# http://stackoverflow.com/questions/6645895/calculating-the-percentage-of-variance-measure-for-k-means | |
cents = [km.kmeans.cluster_centers_ for km in kms] | |
D_k = [cdist(rid_brand_pca, cent, 'euclidean') for cent in cents] | |
# 最も近い中心との距離 | |
dist = [np.min(D,axis=1) for D in D_k] | |
avgWithinSS = [sum(d)/rid_brand_pca.shape[0] for d in dist] | |
# elbow curve |
from matplotlib import pyplot as plt | |
# see http://matplotlib.org/api/pyplot_api.html#matplotlib.pyplot.plot | |
# 画像サイズ指定. | |
plt.figure(figsize=(25, 8)) | |
# 凡例などにTeX表記を使用. | |
plt.rc('text', usetex=True) |
pip install numpy==1.6.1 scipy==0.10.1 theano ipython tornado pyzmq jinja2 pandas networkx matplotlib scikit-learn argparse pyyaml | |
git clone https://github.com/lisa-lab/pylearn2.git | |
cd pylearn2 | |
python setup.py install |
use strict; | |
use warnings; | |
use Time::HiRes; | |
my $a = 0; | |
my $i; | |
my $start = Time::HiRes::gettimeofday(); | |
open(my $FILE, "<master2") or die "Cannot open "; |