Skip to content

Instantly share code, notes, and snippets.

@yumaueno
yumaueno / iris.R
Created January 16, 2018 05:59
iris
library(randomForest)
library(rpart)
library(kernlab)
library(nnet)
data<-iris
ndata<-nrow(data)
ridx<-sample(ndata,ndata*0.5)
data.learn<-data[ridx,]
data.test<-data[-ridx,]
data<-iris
data_train<-data[,-5]#5列目はラベルなので削除
km<-kmeans(data_train,3)
km$cluster
table(data[,5],km$cluster)#本物のラベルとグループ分けを比較
# ----xmeans------
xm<-xmeans(data_train,3)
table(data[,5],xm$cluster)#本物のラベルとグループ分けを比較
##様々な手法で予測精度の比較を行う##
##randomForest,SVM,ナイーブベイズ,ニューラルネット
library(xgboost)
library(caret)
library(Matrix)
library(kernlab)
library(randomForest)
library(e1071)
library(nnet)
library(ggplot2)
@yumaueno
yumaueno / corepon.R
Last active August 12, 2019 07:13
コレスポンデンス分析
library(MASS)
seiseki<-read.csv('seiseki.csv')
seiseki<-seiseki[c(1:30),]
seiseki.ca<-corresp(seiseki,nf=2)
biplot(seiseki.ca)
@yumaueno
yumaueno / conjoint.R
Last active August 13, 2019 03:51
コンジョイント分析
library(conjoint)
data(tea)#サンプルデータ
#コンジョイント分析用のデータ
print(tprof) #各プロファイルの表示
print(tlevn) #各水準
head(tprefm) #効用データ(100人分)
Conjoint(tprefm, tprof, tlevn) #コンジョイント分析
@yumaueno
yumaueno / Scraping.py
Created August 14, 2019 08:48
pythonでスクレイピング
#!/usr/bin/python3
# -*- coding: utf-8 -*-
#ライブラリーインポート
import requests
from bs4 import BeautifulSoup
from time import sleep
#スクレイピング
class Scr():
def __init__(self, urls):
@yumaueno
yumaueno / MeCab.py
Last active August 15, 2019 06:15
MeCabで類似度計算
import requests
from bs4 import BeautifulSoup
import sys
import MeCab
from time import sleep
import numpy as np
from sklearn.feature_extraction.text import TfidfVectorizer
##関数定義
# Step1:URLからテキスト情報をスクレイピング
@yumaueno
yumaueno / sqlite.py
Last active August 16, 2019 10:09
pythonでデータベース操作
import sqlite3
dbname = 'trains.db'
conn=sqlite3.connect(dbname)
c = conn.cursor()
# executeメソッドでSQL文を実行する
create_table = 'create table toukeilab (id value,name verchar)'
c.execute(create_table)
@yumaueno
yumaueno / machrate-sqlite3.py
Created August 16, 2019 10:22
類似度算出を行ってデータベース格納
import requests
from bs4 import BeautifulSoup
import sys
import MeCab
from time import sleep
import numpy as np
from sklearn.feature_extraction.text import TfidfVectorizer
import sqlite3
@yumaueno
yumaueno / sr_all.py
Last active August 17, 2019 07:29
テキスト類似度計算 Webアプリケーション
#!/usr/bin/python3
# -*- coding: utf-8 -*-
#ライブラリーインポート
import requests
from bs4 import BeautifulSoup
import sys
import MeCab
from time import sleep
import numpy as np
from sklearn.feature_extraction.text import TfidfVectorizer