Skip to content

Instantly share code, notes, and snippets.

@uhfx
Last active January 29, 2021 17:16
Show Gist options
  • Star 0 You must be signed in to star a gist
  • Fork 0 You must be signed in to fork a gist
  • Save uhfx/7656ed5ae3f9a92ac47661220f08b11e to your computer and use it in GitHub Desktop.
Save uhfx/7656ed5ae3f9a92ac47661220f08b11e to your computer and use it in GitHub Desktop.
20210130
# import IPython
from IPython.display import display
# lunar1.py header
import pandas as pd
import glob
# lunar1.py
text_paths = glob.glob('data/ocu2/*.txt')
texts = []
for text_path in text_paths:
text = open(text_path, 'r').read()
# text = text.split('\n') # modified
text = text.split(',')
title = text[3] # added
# title = text[2] # modified
text = ' '.join(text[8:9])
# text = text.strip('\n')
text = text.replace( '\n' , '' )
text = text.strip('"')
texts.append(text)
news_ss = pd.Series(texts)
pd.set_option('display.max_rows', None)
display(news_ss.head())
# display(news_ss)
# import IPython
from IPython.display import display
# lunar1.py header
import pandas as pd
import glob
# lunar2.py header
import MeCab
tagger = MeCab.Tagger("-Ochasen")
import mojimoji
import os
import urllib
# lunar1.py
text_paths = glob.glob('data/ocu2/*.txt')
texts = []
for text_path in text_paths:
text = open(text_path, 'r').read()
# text = text.split('\n') # modified
text = text.split(',')
title = text[3] # added
# title = text[2] # modified
text = ' '.join(text[8:9])
# text = text.strip('\n')
text = text.replace( '\n' , '' )
text = text.strip('"')
text = text.replace('する', '')
text = text.replace('できる', '')
texts.append(text)
news_ss = pd.Series(texts)
# display(news_ss.head())
# display(news_ss)
# lunar2.py
def load_jp_stopwords(path="data/jp_stop_words.txt"):
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt'
if os.path.exists(path):
print('File already exists.')
else:
print('Downloading...')
urllib.request.urlretrieve(url, path)
return pd.read_csv(path, header=None)[0].tolist()
def preprocess_jp(series):
stop_words = load_jp_stopwords()
def tokenizer_func(text):
tokens = []
node = tagger.parseToNode(str(text))
while node:
features = node.feature.split(',')
surface = features[6]
if (surface == '*') or (len(surface) < 2) or (surface in stop_words):
node = node.next
continue
noun_flag = (features[0] == '名詞')
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞')
verb_flag = (features[0] == '動詞') & (features[1] == '自立')
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立')
if proper_noun_flag:
tokens.append(surface)
elif noun_flag:
tokens.append(surface)
elif verb_flag:
tokens.append(surface)
elif adjective_flag:
tokens.append(surface)
node = node.next
return " ".join(tokens)
series = series.map(tokenizer_func)
#---------------Normalization-----------#
series = series.map(lambda x: x.lower())
series = series.map(mojimoji.zen_to_han)
return series
processed_news_ss = preprocess_jp(news_ss)
pd.set_option('display.max_rows', None)
display(processed_news_ss.head())
# display(processed_news_ss)
# フォントの入手元 https://moji.or.jp/ipafont/ipafontdownload/
# import IPython
from IPython.display import display
# lunar1.py header
import pandas as pd
import glob
# lunar2.py header
import MeCab
tagger = MeCab.Tagger("-Ochasen")
import mojimoji
import os
import urllib
# lunar3.py header
from wordcloud import WordCloud
import matplotlib
import matplotlib.pyplot as plt
import numpy as np
#lunar1.py
text_paths = glob.glob('data/ocu2/*.txt')
texts = []
for text_path in text_paths:
text = open(text_path, 'r').read()
# text = text.split('\n') # modified
text = text.split(',')
title = text[3] # added
# title = text[2] # modified
text = ' '.join(text[8:9])
# text = text.strip('\n')
text = text.replace( '\n' , '' )
text = text.strip('"')
text = text.replace('する', '')
text = text.replace('できる', '')
texts.append(text)
news_ss = pd.Series(texts)
# display(news_ss.head())
# lunar2.py
def load_jp_stopwords(path="data/jp_stop_words.txt"):
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt'
if os.path.exists(path):
print('File already exists.')
else:
print('Downloading...')
urllib.request.urlretrieve(url, path)
return pd.read_csv(path, header=None)[0].tolist()
def preprocess_jp(series):
stop_words = load_jp_stopwords()
def tokenizer_func(text):
tokens = []
node = tagger.parseToNode(str(text))
while node:
features = node.feature.split(',')
surface = features[6]
if (surface == '*') or (len(surface) < 2) or (surface in stop_words):
node = node.next
continue
noun_flag = (features[0] == '名詞')
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞')
verb_flag = (features[0] == '動詞') & (features[1] == '自立')
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立')
if proper_noun_flag:
tokens.append(surface)
elif noun_flag:
tokens.append(surface)
elif verb_flag:
tokens.append(surface)
elif adjective_flag:
tokens.append(surface)
node = node.next
return " ".join(tokens)
series = series.map(tokenizer_func)
#---------------Normalization-----------#
series = series.map(lambda x: x.lower())
series = series.map(mojimoji.zen_to_han)
return series
processed_news_ss = preprocess_jp(news_ss)
# display(processed_news_ss.head())
# lunar3.py
font_path="/Library/Fonts/ipaexg.ttf"
font_property = matplotlib.font_manager.FontProperties(fname=font_path, size=24)
# font_property = matplotlib.font_manager.FontProperties(size=24)
def show_wordcloud(series):
long_string = ','.join(list(series.values))
# Create a WordCloud object
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
# wordcloud = WordCloud( background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
# Generate a word cloud
wordcloud.generate(long_string)
# Visualize the word cloud
plt.imshow(wordcloud)
plt.show()
show_wordcloud(processed_news_ss)
# import IPython
from IPython.display import display
# lunar1.py header
import pandas as pd
import glob
# lunar2.py header
import MeCab
tagger = MeCab.Tagger("-Ochasen")
import mojimoji
import os
import urllib
# lunar3.py header
from wordcloud import WordCloud
import matplotlib
import matplotlib.pyplot as plt
import numpy as np
#lunar4.py header
from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer
# lunar1.py
text_paths = glob.glob('data/ocu2/*.txt')
texts = []
for text_path in text_paths:
text = open(text_path, 'r').read()
# text = text.split('\n') # modified
text = text.split(',')
title = text[3] # added
# title = text[2] # modified
text = ' '.join(text[8:9])
# text = text.strip('\n')
text = text.replace( '\n' , '' )
text = text.strip('"')
text = text.replace('する', '')
text = text.replace('できる', '')
texts.append(text)
news_ss = pd.Series(texts)
# display(news_ss.head())
# lunar2.py
def load_jp_stopwords(path="data/jp_stop_words.txt"):
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt'
if os.path.exists(path):
print('File already exists.')
else:
print('Downloading...')
urllib.request.urlretrieve(url, path)
return pd.read_csv(path, header=None)[0].tolist()
def preprocess_jp(series):
stop_words = load_jp_stopwords()
def tokenizer_func(text):
tokens = []
node = tagger.parseToNode(str(text))
while node:
features = node.feature.split(',')
surface = features[6]
if (surface == '*') or (len(surface) < 2) or (surface in stop_words):
node = node.next
continue
noun_flag = (features[0] == '名詞')
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞')
verb_flag = (features[0] == '動詞') & (features[1] == '自立')
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立')
if proper_noun_flag:
tokens.append(surface)
elif noun_flag:
tokens.append(surface)
elif verb_flag:
tokens.append(surface)
elif adjective_flag:
tokens.append(surface)
node = node.next
return " ".join(tokens)
series = series.map(tokenizer_func)
#---------------Normalization-----------#
series = series.map(lambda x: x.lower())
series = series.map(mojimoji.zen_to_han)
return series
processed_news_ss = preprocess_jp(news_ss)
# display(processed_news_ss.head())
# lunar3.py
font_path="/Library/Fonts/ipaexg.ttf"
font_property = matplotlib.font_manager.FontProperties(fname=font_path, size=24)
# font_property = matplotlib.font_manager.FontProperties(size=24)
def show_wordcloud(series):
long_string = ','.join(list(series.values))
# Create a WordCloud object
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
# wordcloud = WordCloud( background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
# Generate a word cloud
wordcloud.generate(long_string)
# Visualize the word cloud
plt.imshow(wordcloud)
plt.show()
# show_wordcloud(processed_news_ss)
# lunar4.py
count_vectorizer = CountVectorizer()
count_data = count_vectorizer.fit_transform(processed_news_ss)
tfidf_vectorizer = TfidfTransformer()
tfidf_data = tfidf_vectorizer.fit_transform(count_data)
print(tfidf_data.toarray())
print(tfidf_data.shape)
# import IPython
from IPython.display import display
# lunar1.py header
import pandas as pd
import glob
# lunar2.py header
import MeCab
tagger = MeCab.Tagger("-Ochasen")
import mojimoji
import os
import urllib
# lunar3.py header
from wordcloud import WordCloud
import matplotlib
import matplotlib.pyplot as plt
import numpy as np
#lunar4.py header
from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer
# lunar5.py header
from sklearn.model_selection import GridSearchCV
from sklearn.decomposition import LatentDirichletAllocation as LDA
#lunar1.py
text_paths = glob.glob('data/ocu2/*.txt')
texts = []
for text_path in text_paths:
text = open(text_path, 'r').read()
# text = text.split('\n') # modified
text = text.split(',')
title = text[3] # added
# title = text[2] # modified
text = ' '.join(text[8:9])
# text = text.strip('\n')
text = text.replace( '\n' , '' )
text = text.strip('"')
text = text.replace('する', '')
text = text.replace('できる', '')
texts.append(text)
news_ss = pd.Series(texts)
# display(news_ss.head())
# lunar2.py
def load_jp_stopwords(path="data/jp_stop_words.txt"):
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt'
if os.path.exists(path):
print('File already exists.')
else:
print('Downloading...')
urllib.request.urlretrieve(url, path)
return pd.read_csv(path, header=None)[0].tolist()
def preprocess_jp(series):
stop_words = load_jp_stopwords()
def tokenizer_func(text):
tokens = []
node = tagger.parseToNode(str(text))
while node:
features = node.feature.split(',')
surface = features[6]
if (surface == '*') or (len(surface) < 2) or (surface in stop_words):
node = node.next
continue
noun_flag = (features[0] == '名詞')
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞')
verb_flag = (features[0] == '動詞') & (features[1] == '自立')
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立')
if proper_noun_flag:
tokens.append(surface)
elif noun_flag:
tokens.append(surface)
elif verb_flag:
tokens.append(surface)
elif adjective_flag:
tokens.append(surface)
node = node.next
return " ".join(tokens)
series = series.map(tokenizer_func)
#---------------Normalization-----------#
series = series.map(lambda x: x.lower())
series = series.map(mojimoji.zen_to_han)
return series
processed_news_ss = preprocess_jp(news_ss)
# display(processed_news_ss.head())
# lunar3.py
font_path="/Library/Fonts/ipaexg.ttf"
font_property = matplotlib.font_manager.FontProperties(fname=font_path, size=24)
# font_property = matplotlib.font_manager.FontProperties(size=24)
def show_wordcloud(series):
long_string = ','.join(list(series.values))
# Create a WordCloud object
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
# wordcloud = WordCloud( background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
# Generate a word cloud
wordcloud.generate(long_string)
# Visualize the word cloud
plt.imshow(wordcloud)
plt.show()
# show_wordcloud(processed_news_ss)
# lunar4.py
count_vectorizer = CountVectorizer()
count_data = count_vectorizer.fit_transform(processed_news_ss)
tfidf_vectorizer = TfidfTransformer()
tfidf_data = tfidf_vectorizer.fit_transform(count_data)
# print(tfidf_data.toarray())
# print(tfidf_data.shape)
# lunar5.py
from sklearn.model_selection import GridSearchCV
from sklearn.decomposition import LatentDirichletAllocation as LDA
def gridsearch_best_model(tfidf_data, plot_enabled=True):
# Define Search Param
n_topics = [4,5,6,7,8,9]
# n_topics = [8,9,10,11,12,13]
search_params = {'n_components': n_topics}
# Init the Model
lda = LDA(max_iter=25, # Max learning iterations
learning_method='batch',
random_state=0, # Random state
n_jobs = -1, # Use all available CPUs)
)
# Init Grid Search Class
model = GridSearchCV(lda, param_grid=search_params)
# Do the Grid Search
model.fit(tfidf_data)
# Best Model
best_lda_model = model.best_estimator_
# Model Parameters
print("Best Model's Params: ", model.best_params_)
# Log Likelihood Score
print("Best Log Likelihood Score: ", model.best_score_)
# Perplexity
print("Model Perplexity: ", best_lda_model.perplexity(tfidf_data))
# Get Log Likelyhoods from Grid Search Output
log_likelyhoods_score = [round(score) for score in model.cv_results_["mean_test_score"]]
if plot_enabled:
# Show graph
plt.figure(figsize=(12, 8))
plt.plot(n_topics, log_likelyhoods_score)
plt.title("Choosing Optimal LDA Model")
plt.xlabel("Number of Topics")
plt.ylabel("Log Likelyhood Scores")
plt.show()
return best_lda_model
best_lda_model = gridsearch_best_model(tfidf_data)
# import IPython
from IPython.display import display
# lunar1.py header
import pandas as pd
import glob
# lunar2.py header
import MeCab
tagger = MeCab.Tagger("-Ochasen")
import mojimoji
import os
import urllib
# lunar3.py header
from wordcloud import WordCloud
import matplotlib
import matplotlib.pyplot as plt
import numpy as np
#lunar4.py header
from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer
# lunar5.py header
from sklearn.model_selection import GridSearchCV
from sklearn.decomposition import LatentDirichletAllocation as LDA
#lunar1.py
text_paths = glob.glob('data/ocu2/*.txt')
texts = []
for text_path in text_paths:
text = open(text_path, 'r').read()
# text = text.split('\n') # modified
text = text.split(',')
title = text[3] # added
# title = text[2] # modified
text = ' '.join(text[8:9])
# text = text.strip('\n')
text = text.replace( '\n' , '' )
text = text.strip('"')
text = text.replace('する', '')
text = text.replace('できる', '')
texts.append(text)
news_ss = pd.Series(texts)
# display(news_ss.head())
# lunar2.py
def load_jp_stopwords(path="data/jp_stop_words.txt"):
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt'
if os.path.exists(path):
print('File already exists.')
else:
print('Downloading...')
urllib.request.urlretrieve(url, path)
return pd.read_csv(path, header=None)[0].tolist()
def preprocess_jp(series):
stop_words = load_jp_stopwords()
def tokenizer_func(text):
tokens = []
node = tagger.parseToNode(str(text))
while node:
features = node.feature.split(',')
surface = features[6]
if (surface == '*') or (len(surface) < 2) or (surface in stop_words):
node = node.next
continue
noun_flag = (features[0] == '名詞')
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞')
verb_flag = (features[0] == '動詞') & (features[1] == '自立')
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立')
if proper_noun_flag:
tokens.append(surface)
elif noun_flag:
tokens.append(surface)
elif verb_flag:
tokens.append(surface)
elif adjective_flag:
tokens.append(surface)
node = node.next
return " ".join(tokens)
series = series.map(tokenizer_func)
#---------------Normalization-----------#
series = series.map(lambda x: x.lower())
series = series.map(mojimoji.zen_to_han)
return series
processed_news_ss = preprocess_jp(news_ss)
# display(processed_news_ss.head())
# lunar3.py
font_path="/Library/Fonts/ipaexg.ttf"
font_property = matplotlib.font_manager.FontProperties(fname=font_path, size=24)
# font_property = matplotlib.font_manager.FontProperties(size=24)
def show_wordcloud(series):
long_string = ','.join(list(series.values))
# Create a WordCloud object
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
# wordcloud = WordCloud( background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
# Generate a word cloud
wordcloud.generate(long_string)
# Visualize the word cloud
plt.imshow(wordcloud)
plt.show()
# show_wordcloud(processed_news_ss)
# lunar4.py
count_vectorizer = CountVectorizer()
count_data = count_vectorizer.fit_transform(processed_news_ss)
tfidf_vectorizer = TfidfTransformer()
tfidf_data = tfidf_vectorizer.fit_transform(count_data)
# print(tfidf_data.toarray())
# print(tfidf_data.shape)
# lunar5.py
def gridsearch_best_model(tfidf_data, plot_enabled=False):
# Define Search Param
# n_topics = [8,9,10,11,12,13]
n_topics = [4,5,6,7,8,9]
search_params = {'n_components': n_topics}
# Init the Model
lda = LDA(max_iter=25, # Max learning iterations
learning_method='batch',
random_state=0, # Random state
n_jobs = -1, # Use all available CPUs)
)
# Init Grid Search Class
model = GridSearchCV(lda, param_grid=search_params)
# Do the Grid Search
model.fit(tfidf_data)
# Best Model
best_lda_model = model.best_estimator_
# Model Parameters
print("Best Model's Params: ", model.best_params_)
# Log Likelihood Score
print("Best Log Likelihood Score: ", model.best_score_)
# Perplexity
print("Model Perplexity: ", best_lda_model.perplexity(tfidf_data))
# Get Log Likelyhoods from Grid Search Output
log_likelyhoods_score = [round(score) for score in model.cv_results_["mean_test_score"]]
if plot_enabled:
# Show graph
plt.figure(figsize=(12, 8))
plt.plot(n_topics, log_likelyhoods_score)
plt.title("Choosing Optimal LDA Model")
plt.xlabel("Number of Topics")
plt.ylabel("Log Likelyhood Scores")
plt.show()
return best_lda_model
best_lda_model = gridsearch_best_model(tfidf_data)
# lunar6.py
def print_topics(model, count_vectorizer, n_top_words):
fig = plt.figure(figsize=(15,8))
words = count_vectorizer.get_feature_names()
for topic_idx, topic in enumerate(model.components_):
print("\nTopic #", topic_idx, ":")
long_string = ','.join([words[i] for i in topic.argsort()[:-n_top_words - 1:-1]])
print(long_string)
topic_wordcloud(topic_idx, fig, long_string)
# show plots
fig.tight_layout()
fig.show()
def topic_wordcloud(topic_idx, fig, long_string):
ax = fig.add_subplot(2, 3, topic_idx + 1)
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue')
wordcloud.generate(long_string)
ax.imshow(wordcloud)
ax.set_title('Topic '+str(topic_idx))
number_words = 500
print_topics(best_lda_model, count_vectorizer, number_words)
(bachelor) user@MacBook-Pro bachelor % python3 ocu1.py
0 研究発表でZOOMを使いたいが、不特定多数が参加できないように事前登録を行いたい。
1 Windows 10にアップデートしたい
2 (学生)Adobeのライセンスが欲しい
3 MacでWindowsPCのおリモートデスクトップを操作する方法を知りたい.
4 事務用共用ファイルサーバーにアクセスできなくなった。フォルダをダブルクリックしても「権限がな...
dtype: object
(bachelor) user@MacBook-Pro bachelor % python3 ocu12.py
File already exists.
0 研究 発表 使う 特定 多数 参加 できる 事前 登録 行う
1 アップデート する
2 学生 ライセンス 欲しい
3 リモート デスク トップ 操作 知る
4 事務 共用 ファイル サーバー アクセス できる なる ダブル クリック する 権限 ...
dtype: object
(bachelor) user@MacBook-Pro bachelor % python3 ocu123.py
File already exists.
(bachelor) user@MacBook-Pro bachelor % python3 ocu1234.py
File already exists.
[[0. 0. 0. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]
...
[0. 0. 0. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]]
(216, 394)
(bachelor) user@MacBook-Pro bachelor % python3 ocu12345.py
File already exists.
Best Model's Params: {'n_components': 4}
Best Log Likelihood Score: -981.3021621003936
Model Perplexity: 1116.6786497176963
(bachelor) user@MacBook-Pro bachelor % python3 ocu123456.py
File already exists.
Best Model's Params: {'n_components': 4}
Best Log Likelihood Score: -981.3021621003936
Model Perplexity: 1116.6786497176963
Topic # 0 :
出来る,ネットワーク,する,接続,ログイン,なる,認証,仮想,メール,入る,アドレス,継続,アクセス,アカウント,含む,追加,研究,固定,できる,システム,学生,アンケート,サイト,非公開,データベース,入れる,現在,通る,勤務,記事,共同,ページ,削除,切り換える,届く,仕様,回答,大学院,くん,使える,マイニング,テキスト,財務,会計,発生,病院,更新,使う,プリンター,思う,情報,退職,専用,メンバー,計算,宛先,結果,流出,つながる,プリンタ,よい,反映,一覧,短縮,掲載,取得,スパムメール,特定,共有,学内,掲示,最新,配信,端末,迷惑,無い,タイミング,完全,退学,閲覧,操作,職員,お願い,所属,マニュアル,変更,分かる,欲しい,卒業,悪い,調子,買い替える,各種,入力,要求,教員,不調,公式,正常,承認,推進,番号,法科,永井,克明,購入,ある,学外,データ,公開,身分,内線,行う,センター,研究所,数学,お世話,印刷,出る,差出人,エラー,配る,最初,今年度,記載,対応,登録,権限,係長,禁止,向け,経済,解決,ご存じ,ドライブ,不可,藤本,御中,田中,置く,基盤,工学院大学,理学部,支援,受信,兼任,取れる,解釈,今年,河村,学習,恐れ入る,残す,いただける,大阪市立大学,状況,個人,ヘルプ,担当,確認,変わる,問い合わせ,ない,失敗,ダウンロード,使用,申請,切断,発行,停電,デスク,インターネット,求める,利用,教える,繋がる,つなげる,ソフト,メールアドレス,質問,パスワード,ロード,試みる,動画,対策,長い,アップ,リモート,トップ,応答,選ぶ,問題,ウイルス,起動,必要,ライセンス,グローバル,容量,表示,授業,ログアウト,付与,人事,貸し出し,複合,割り当てる,ファイル,見る,全学,動作,可能,グループ,でる,包括,先生,共用,アン,来客,見つける,拝見,展開,指示,添付,割り当て,事前,参加,有償,ホスト,見つかる,送信,調達,一括,機能,アップデート,事務,分類,やる,上限,有線,けんか,飛ぶ,休止,一時,設定,インストール,同期,パソコン,忘れる,学部,居室,いる,レポート,出す,誤る,強制,機器,振る,新しい,初期,メモリ,あがる,バージョン,対象,留学生,遠隔,阿倍野,問合せ,医学部,設置,在宅,名誉,教授,画面,無線,指定,新規,杉本,エリア,マーク,ポケット,あける,常勤,外れる,自動的,サーバー,ケーブル,引く,ポート,繋げる,使い方,ツール,わかる,提供,無効,大学,切れる,引き継ぐ,年度,もつ,チーム,十分,部署,ミーティング,外部,補佐,用途,タブレット,送受信,受ける,のく,手続き,開始,事象,同様,起きる,インターン,自宅,サーバ,グレード,古い,参照,経緯,管理,アプリケーション,サービス,ソフトウエア,フォーム,給与,前期,いう,ノート,大量,かかる,知る,保護,プライバシー,客員,契約,キャンパス,講師,ユーザー,検討,非常勤,証明,雇用,正規,ウィルス,再生,アイコ,書く,学校,ネット,作成,訪問,ホームページ,開設,不明,受付,広瀬,進捗,導入,代理,安否,ダブル,クリック,案内,お忙しい,おりる,その他,学術,替え,伊賀,恐縮,入れ替える,課内,持つ,内容,処理,考える,教示,項目,申し上げる,由紀子,異動,転出,ゲスト,期限,有効,ユーザ,試す,有料,運用,発表,多数
Topic # 1 :
有償,する,ネットワーク,印刷,追加,プリンター,ライセンス,できる,有料,機能,利用,差出人,登録,運用,けんか,担当,削除,ログイン,プリンタ,検討,変更,ある,再生,研究,経緯,参照,接続,停電,名誉,教授,ログアウト,動画,複合,取得,証明,分かる,切れる,開設,ホームページ,必要,留学生,思う,エラー,学内,インターネット,番号,職員,出る,異動,転出,表示,ホスト,期限,ゲスト,有効,試す,ユーザ,仮想,無い,見つかる,共同,長い,発表,多数,欲しい,アン,事前,参加,特定,人事,行う,使う,代理,申請,アカウント,先生,更新,データベース,アクセス,使用,システム,出来る,対象,教員,なる,インストール,アドレス,可能,ダウンロード,メール,設定,ソフト,非常勤,起動,大阪市立大学,切断,入る,容量,よい,授業,教える,繋がる,購入,変わる,反映,グローバル,貸し出し,付与,迷惑,権限,メールアドレス,問い合わせ,失敗,見る,記事,包括,今年度,最初,記載,配る,病院,パスワード,状況,割り当てる,ロード,学生,メンバー,デスク,操作,共用,アップ,つなげる,来客,サイト,入れる,グループ,マニュアル,発行,内線,身分,含む,固定,試みる,卒業,対策,いる,認証,調達,一括,情報,現在,マイニング,テキスト,事務,所属,ファイル,ヘルプ,動作,強制,誤る,アップデート,やる,上限,端末,個人,置く,ウイルス,ページ,同期,有線,送信,一時,休止,質問,分類,レポート,出す,確認,求める,居室,対応,初期,忘れる,学部,設置,お願い,いただける,在宅,新しい,メモリ,無線,バージョン,あがる,飛ぶ,遠隔,ポケット,機器,振る,ない,問合せ,杉本,エリア,マーク,チーム,あける,常勤,知る,非公開,画面,新規,指定,くん,繋げる,ポート,引く,ケーブル,使い方,ツール,タブレット,医学部,応答,選ぶ,問題,買い替える,調子,悪い,契約,グレード,古い,わかる,補佐,ミーティング,外部,用途,のく,受ける,拝見,指示,展開,割り当て,添付,見つける,大学,阿倍野,送受信,大量,フォーム,いう,給与,前期,講師,かかる,サーバ,インターン,事象,起きる,同様,開始,手続き,宛先,客員,もつ,引き継ぐ,年度,ユーザー,プライバシー,保護,自宅,パソコン,サーバー,書く,アイコ,雇用,提供,無効,正規,永井,法科,克明,切り換える,自動的,外れる,キャンパス,学校,十分,部署,通る,ノート,サービス,管理,ソフトウエア,アプリケーション,継続,つながる,スパムメール,ネット,不明,流出,結果,受付,広瀬,進捗,一覧,短縮,掲載,リモート,安否,作成,専用,会計,財務,訪問,トップ,でる,届く,掲示,最新,配信,導入,全学,案内,勤務,申し上げる,持つ,替え,入れ替える,伊賀,項目,学術,お忙しい,処理,恐縮,考える,その他,課内,おりる,由紀子,教示,内容,大学院,退学,完全,タイミング,ウィルス,ダブル,クリック,計算,承認,公式,正常,不調,使える,回答,仕様,データ,公開,学外,アンケート,各種,要求,入力,退職,発生,ドライブ,ご存じ,御中,不可,向け,係長,田中,禁止,経済,解決,藤本,共有,閲覧,推進,お世話,理学部,工学院大学,取れる,今年,基盤,解釈,恐れ入る,河村,受信,残す,学習,兼任,支援,数学,センター,研究所
Topic # 2 :
する,利用,できる,メール,パスワード,なる,ログイン,システム,申請,設定,ウイルス,全学,変更,認証,接続,わかる,非常勤,教える,講師,繋がる,初期,メールアドレス,インターネット,ダウンロード,対策,アドレス,ソフト,ライセンス,アップデート,可能,ヘルプ,包括,安否,付与,表示,必要,確認,アップ,デスク,対応,容量,上限,アカウント,ネット,送受信,対象,起動,グローバル,権限,問い合わせ,無線,ロード,試みる,動画,送信,不明,端末,切断,居室,情報,ある,やる,大阪市立大学,有線,キャンパス,いる,固定,求める,休止,一時,教員,フォーム,反映,ファイル,忘れる,学部,複合,分類,メモリ,訪問,来客,アイコ,書く,出す,レポート,人事,状況,問合せ,あがる,バージョン,画面,迷惑,貸し出し,マニュアル,職員,授業,見る,研究,かかる,学内,使う,欲しい,手続き,開始,のく,受ける,グレード,古い,番号,医学部,阿倍野,引く,繋げる,ケーブル,ポート,設置,用途,補佐,外部,ミーティング,病院,割り当てる,プライバシー,保護,事前,共用,振る,機器,いう,給与,前期,行う,登録,常勤,あける,広瀬,受付,進捗,長い,グループ,事象,同様,起きる,インターン,マーク,杉本,エリア,割り当て,添付,拝見,指示,展開,見つける,変わる,よい,事務,差出人,入る,学術,由紀子,処理,伊賀,考える,項目,内容,持つ,教示,申し上げる,入れ替える,おりる,その他,替え,恐縮,課内,お忙しい,置く,いただける,内線,身分,調達,一括,所属,お願い,担当,今年度,配る,記載,最初,失敗,使用,出来る,エラー,停電,有償,分かる,発行,ネットワーク,インストール,大学,見つかる,ユーザ,試す,プリンター,購入,買い替える,調子,悪い,出る,不調,正常,承認,公式,プリンタ,削除,共有,リモート,トップ,発生,サイト,アクセス,動作,個人,検討,ログアウト,共同,記事,アン,ツール,使い方,在宅,入れる,操作,現在,思う,先生,取得,特定,ポケット,学生,含む,飛ぶ,メンバー,卒業,印刷,チーム,テキスト,マイニング,ユーザー,データベース,ノート,同期,無い,参加,機能,ページ,つなげる,更新,ない,けんか,ホスト,追加,仮想,パソコン,強制,誤る,切れる,遠隔,新しい,くん,質問,知る,スパムメール,年度,もつ,引き継ぐ,継続,タブレット,宛先,非公開,サーバー,仕様,契約,新規,指定,自宅,サービス,アプリケーション,管理,ソフトウエア,名誉,教授,作成,十分,部署,再生,財務,会計,サーバ,証明,有料,通る,大量,経緯,参照,正規,届く,無効,提供,客員,勤務,雇用,学校,専用,クリック,ダブル,問題,選ぶ,応答,流出,結果,導入,外れる,自動的,切り換える,計算,案内,異動,転出,掲示,配信,最新,解決,経済,係長,向け,ご存じ,藤本,ドライブ,禁止,不可,田中,御中,ホームページ,開設,一覧,短縮,掲載,代理,ウィルス,回答,入力,各種,要求,でる,つながる,推進,法科,克明,永井,アンケート,完全,タイミング,退学,公開,学外,データ,期限,有効,ゲスト,留学生,閲覧,使える,運用,お世話,退職,大学院,多数,発表,恐れ入る,基盤,学習,工学院大学,受信,兼任,支援,解釈,取れる,残す,河村,今年,理学部,センター,数学,研究所
Topic # 3 :
する,インストール,使用,発行,ソフト,できる,教える,トップ,リモート,デスク,ライセンス,サーバー,可能,学生,ある,アカウント,ウィルス,接続,分かる,対策,知る,メールアドレス,作成,正規,大学,ダウンロード,共用,自宅,アクセス,研究,同期,客員,利用,ない,学校,質問,ファイル,購入,導入,職員,なる,包括,ページ,ノート,アドレス,表示,動作,卒業,プリンタ,事務,エラー,ログアウト,新しい,パスワード,欲しい,在宅,でる,付与,出る,飛ぶ,つなげる,アン,契約,失敗,チーム,遠隔,権限,大量,使い方,ツール,ポケット,操作,ユーザー,授業,教員,ログイン,サーバ,グローバル,指定,新規,パソコン,先生,登録,無効,提供,タブレット,雇用,貸し出し,よい,変わる,学内,入れる,必要,番号,見つかる,個人,誤る,強制,案内,起動,クリック,ダブル,一括,調達,人事,アプリケーション,サービス,ソフトウエア,管理,ロード,十分,部署,外れる,自動的,アップ,割り当てる,もつ,年度,引き継ぐ,見る,グループ,入る,記事,参加,メンバー,削除,現在,問い合わせ,選ぶ,応答,問題,長い,サイト,容量,大阪市立大学,ネットワーク,共同,ホスト,繋がる,マイニング,テキスト,試みる,ウイルス,配る,今年度,記載,最初,上限,機能,有償,使う,出来る,来客,求める,初期,行う,教授,名誉,異動,転出,置く,マニュアル,対応,ヘルプ,御中,田中,向け,経済,ドライブ,係長,ご存じ,禁止,解決,藤本,不可,インターネット,印刷,お願い,推進,情報,変更,担当,いただける,お世話,状況,確認,今年,工学院大学,兼任,解釈,恐れ入る,取れる,学習,残す,理学部,受信,基盤,河村,支援,センター,数学,研究所,所属,差出人,閲覧,内線,身分,共有,反映,切断,迷惑,思う,取得,届く,回答,その他,恐縮,申し上げる,おりる,入れ替える,お忙しい,学術,項目,内容,考える,替え,処理,由紀子,教示,課内,伊賀,持つ,複合,停電,申請,病院,動画,メール,端末,固定,かかる,無い,システム,含む,事前,認証,プリンター,メモリ,出す,レポート,送信,問合せ,データベース,フォーム,アップデート,更新,特定,やる,退職,追加,仮想,見つける,拝見,添付,指示,展開,割り当て,設定,使える,けんか,有線,分類,休止,一時,勤務,いる,仕様,居室,外部,用途,ミーティング,補佐,忘れる,学部,杉本,エリア,マーク,スパムメール,プライバシー,保護,対象,非公開,無線,機器,振る,あがる,バージョン,受ける,のく,証明,医学部,常勤,あける,画面,設置,検討,ポート,ケーブル,引く,繋げる,阿倍野,くん,講師,古い,グレード,書く,アイコ,給与,いう,前期,非常勤,送受信,起きる,インターン,事象,同様,わかる,参照,経緯,手続き,開始,再生,キャンパス,宛先,切れる,結果,流出,継続,広瀬,受付,進捗,通る,切り換える,悪い,買い替える,調子,ネット,配信,掲示,最新,短縮,一覧,掲載,有効,期限,ゲスト,代理,つながる,退学,完全,タイミング,訪問,安否,有料,ホームページ,開設,不明,不調,公式,正常,承認,会計,財務,専用,全学,公開,学外,データ,克明,永井,法科,試す,ユーザ,計算,要求,各種,入力,アンケート,留学生,発生,大学院,運用,発表,多数
(bachelor) user@MacBook-Pro bachelor % python3 ocu1.py
0 研究発表でZOOMを使いたいが、不特定多数が参加できないように事前登録を行いたい。
1 Windows 10にアップデートしたい
2 (学生)Adobeのライセンスが欲しい
3 MacでWindowsPCのおリモートデスクトップを操作する方法を知りたい.
4 事務用共用ファイルサーバーにアクセスできなくなった。フォルダをダブルクリックしても「権限がな...
dtype: object
(bachelor) user@MacBook-Pro bachelor % python3 ocu12.py
File already exists.
0 研究発表 使う 不特定多数 参加 できる 事前登録 行う
1 windows 10 アップデート する
2 学生 adobe ライセンス 欲しい
3 mac windowspc リモートデスクトップ 操作 知る
4 事務 共用 ファイルサーバ アクセス できる なる folder ダブルクリック する...
dtype: object
(bachelor) user@MacBook-Pro bachelor % python3 ocu123.py
File already exists.
(bachelor) user@MacBook-Pro bachelor % python3 ocu1234.py
File already exists.
[[0. 0. 0. ... 0. 0. 0. ]
[0.58050992 0. 0. ... 0. 0. 0. ]
[0. 0. 0. ... 0. 0. 0. ]
...
[0. 0. 0. ... 0. 0. 0. ]
[0. 0. 0. ... 0. 0. 0. ]
[0. 0. 0. ... 0. 0. 0. ]]
(295, 451)
(bachelor) user@MacBook-Pro bachelor % python3 ocu12345.py
File already exists.
Best Model's Params: {'n_components': 4}
Best Log Likelihood Score: -1300.0961617890273
Model Perplexity: 1121.162863610731
(bachelor) user@MacBook-Pro bachelor % python3 ocu123456.py
File already exists.
Best Model's Params: {'n_components': 4}
Best Log Likelihood Score: -1300.0961617890273
Model Perplexity: 1121.162863610731
Topic # 0 :
出来る,メール,質問,する,なる,動画,one,変更,転送,ログイン,利用,できる,サーバー,インストール,阿倍野,zoom,キャンパス,運用,担当,使用,アップロード,試みる,削除,ポータルサイト,動作,メーリングリスト,追加,部分,再生,検討,大阪市立大学,停電,全学,outlook,財務会計,付き,検索,引っ越し,使う,pdf,ウェビナー,結果,レルム,介す,遠隔,drive,同期,ak,jp,ac,機能,授業,留学生,事務,ファイルサーバ,見る,onedrive,出る,更新,通知,ウイルス,共用,無線lan,状況,4月1日,付け,特任教授,ssh,受ける,掲示,配信,最新版,アクセス,st,os,割り当てる,固定,端末,2020年,4月,仕様,無効,ファイアーウォール,提供,表示,操作,グローバルipアドレス,マニュアル,エラー,現在,継続,欲しい,メールアドレス,入れる,教える,ネットワーク,サイト,問題,応答時間,選ぶ,つなげる,3v,pn,認証,学内,システム,印刷,対策,ある,研究室,可能,仮想,ウィルス,長い,プリンター,自宅,登録,でる,接続,fi,vpn,wi,ソフト,ダウンロード,繋がる,迷惑メール,無線,容量,研究,コンセント,来客,市大,職員,入る,教員,思う,取得,入力,切断,ファイル,ユーザ名,アカウント,サービス,情報,複合機,有料,共有,失敗,貸し出し,プリンタ,ap,経由,くん,新しい,作成,問い合わせ,unix,付与,利用可能,よい,知る,fiルータ,契約,非常勤,データ,分かる,名誉教授,証明書,pc,先生,ネット,adobe,office,講義,見つかる,人事,常時,android標準ブラウザ,通る,番号,office365,行う,ieee802,タブ,雇用,スパムメール,包括,必要,対応,受信,参加,非公開,ライセンス,使い方,卒業,求める,宛先,届く,特定,リモートデスクトップ,けんか,君について,ftp,ポート,通信,申請,ない,class,差出人,休止,一時,流出,回答,電子ジャーナル,ノート,個人,パスポート,univer,sal,状態,iphone,レポート,出す,thunderbird,学生,オフライン,10,アップデート,学部,わかる,microsoft,閲覧,日経テレコン21,手順,インターネット,再起動,テキストマイニング,分類,グループ,購入,web,切り換える,グローバルip,やる,記事,見つける,割り当て,添付,指示,展開,拝見,ms,大学,初期化,有償,folder,windowspc,上限,調べ,返信,自動,バージョン,送受信,あがる,開設,ホームページ,webページ,メール設定,ログアウト,古い,アップグレード,した,id,xxx,飛ぶ,ping,spss,客員研究員,図書館,macアドレス,desktop,切れる,割当てる,linux,dhcp,発行,パソコン,チーム,在宅,リモート,pc等,常勤,あける,無い,一覧,掲載,短縮url,ウイルス対策,windows,以外,ダブルクリック,url,部署,十分,ゲスト,長居,有効期限,無位,計算機,ipアドレス,保護,プライバシー,パスワード,専用,データベース,学情,home,事象,インターン,起きる,同様,対象者,usbメモリ,アンケート,職種,設定,与える,許可,反映,対象,2013,忘れる,かかる,共同,ホスト,使用可能,サインイン,非正規,sharepoint,ツール,タブレット,powerpoint,ip,グローバル,nas,mac,cc,含む,居室,送信,つながる,zip,問合せ,フォーム,windows10,いう,給与,前期,マーク,エリア,2つ,map,杉本,認証画面,引き継ぐ,もつ,本年度中,可能性,正規,機器,振る,非常勤講師,nw,メンバ,ソフトウエア,アプリケーション,管理者,安否確認システム,アドレス,要求,microsoftアカウント,各種,固定ipアドレス,訪問,所属,外れる,自動的,導入,hp,向け,ドメイン,増やす,初期,のく,自室,権限,開始,手続き,loota,事前,案内,一括,調達,ssid,いくつか,アクセス数,同時,画面,人事異動,転出,ユーザ,試す,使用方法,コミュニティ,アイコン,書く,ページ,ヘルプ,デスク,it,大量,変わる,メンバー,ipad,使える,共同研究,不特定多数,事前登録,研究発表,設置,ios,起動,強制的,誤る,不明,学校,退学,タイミング,完全,退職,補佐,申請可能,外部,用途,ミーティング,講師,医学部,病院,対象外,lan,アンインストール
Topic # 1 :
する,メール,利用,設定,ソフト,知る,リモートデスクトップ,インストール,アドレス,ログイン,ダウンロード,ライセンス,可能,使用,差出人,ウイルス対策,thunderbird,変更,教える,pc,メーリングリスト,出来る,自宅,なる,表示,ウィルス,office,有償,大学,office365,windows10,アカウント,対策,できる,url,包括,adobe,mac,欲しい,名誉教授,メールアドレス,アクセス,ページ,送信,作成,共用,手順,共有,複合機,状態,zoom,home,folder,エラー,パソコン,ある,ない,継続,グローバルipアドレス,番号,権限,購入,サーバー,入力,nas,導入,対象,グローバル,ip,cc,講義,os,記事,windows,切断,市大,対応,申請,登録,アンケート,ポータルサイト,テキストマイニング,職員,常時,入れる,出る,desktop,受信,調べ,非公開,非常勤,日経テレコン21,閲覧,spss,でる,くん,新しい,onedrive,10,アップデート,チーム,オフライン,有料,xxx,証明書,訪問,長い,macアドレス,windowspc,sharepoint,webページ,ホームページ,開設,容量,先生,回答,流出,割当てる,在宅,リモート,pc等,職種,操作,パスポート,sal,univer,思う,経由,ap,自動,返信,無い,短縮url,一覧,掲載,結果,飛ぶ,ping,かかる,取得,長居,ゲスト,無位,有効期限,よい,研究,ieee802,タブ,無線,pn,つなげる,3v,利用可能,保護,プライバシー,見つかる,powerpoint,タブレット,失敗,貸し出し,対象者,ダブルクリック,求める,一括,調達,案内,通信,ftp,ポート,行う,各種,microsoftアカウント,要求,ファイルサーバ,事務,人事,ソフトウエア,管理者,アプリケーション,した,アップグレード,古い,マニュアル,常勤,あける,以外,ノート,個人,教員,サービス,十分,部署,割り当てる,ファイル,問い合わせ,見る,事象,インターン,同様,起きる,アップロード,入る,ネット,選ぶ,応答時間,問題,サイト,分かる,契約,繋がる,ユーザ名,迷惑メール,スパムメール,ac,ak,jp,提供,ファイアーウォール,無効,ネットワーク,雇用,大阪市立大学,iphone,接続,研究室,学生,認証,質問,必要,web,転送,上限,vpn,わかる,バージョン,送受信,あがる,システム,one,プリンタ,客員研究員,microsoft,id,パスワード,ログアウト,ms,許可,与える,インターネット,追加,データ,非常勤講師,発行,非正規,メンバー,ios,ipad,コンセント,pdf,来客,授業,介す,付与,情報,宛先,届く,特定,使う,ssh,学内,仮想,機能,レルム,休止,一時,class,分類,状況,無線lan,検索,通る,android標準ブラウザ,卒業,留学生,印刷,認証画面,使い方,参加,画面,端末,固定,けんか,君について,学部,受ける,グループ,電子ジャーナル,現在,unix,linux,dhcp,fiルータ,キャンパス,拝見,指示,割り当て,展開,添付,見つける,再起動,前期,いう,給与,メール設定,全学,グローバルip,やる,対象外,講師,医学部,病院,検討,初期化,削除,図書館,反映,fi,wi,切れる,出す,レポート,自室,動作,引っ越し,部分,プリンター,usbメモリ,財務会計,ホスト,使用可能,共同,2013,忘れる,ツール,遠隔,切り換える,nw,zip,サインイン,可能性,正規,引き継ぐ,もつ,本年度中,変わる,固定ipアドレス,居室,含む,データベース,専用,学情,つながる,所属,問合せ,フォーム,機器,振る,設置,再生,停電,大量,計算機,ipアドレス,安否確認システム,hp,向け,ドメイン,増やす,ウイルス,メンバ,のく,学校,使える,loota,事前,初期,試す,ユーザ,手続き,開始,自動的,外れる,4月1日,付け,特任教授,outlook,ssid,共同研究,強制的,起動,誤る,ヘルプ,デスク,転出,人事異動,アクセス数,同時,いくつか,コミュニティ,申請可能,用途,ミーティング,補佐,外部,it,ウェビナー,使用方法,付き,エリア,杉本,map,2つ,マーク,不明,完全,退職,退学,タイミング,研究発表,事前登録,不特定多数,アンインストール,lan,同期,drive,最新版,掲示,配信,st,4月,仕様,2020年,動画,書く,アイコン,試みる,阿倍野,通知,更新,運用,担当
Topic # 2 :
接続,できる,ログアウト,教える,vpn,ipad,microsoft,office,インターネット,する,office365,インストール,ある,pc,非常勤講師,使用,iphone,ネットワーク,ログイン,ios,lan,入る,上限,プリンタ,取得,切れる,つながる,ライセンス,付与,学内,学校,アンインストール,zoom,再起動,卒業,メールアドレス,使う,市大,メール設定,サインイン,図書館,含む,必要,ms,有料,削除,共同研究,職員,通る,android標準ブラウザ,切り換える,契約,増やす,使用方法,アカウント,ネット,hp,ドメイン,向け,大量,レルム,人事異動,転出,画面,コンセント,データ,アイコン,書く,バージョン,送受信,あがる,いくつか,アクセス数,同時,計算機,ipアドレス,情報,変わる,使える,繋がる,容量,サイト,端末,固定,研究発表,事前登録,不特定多数,スパムメール,共用,行う,参加,対象外,病院,医学部,講師,退職,完全,退学,タイミング,アップロード,番号,外部,補佐,ミーティング,申請可能,用途,迷惑メール,包括,教員,os,電子ジャーナル,強制的,起動,誤る,研究,表示,思う,サービス,アクセス,入れる,2013,adobe,map,マーク,エリア,杉本,2つ,利用可能,キャンパス,ssh,来客,無線,class,ap,経由,サーバー,pdf,証明書,ダウンロード,入力,メール,fi,wi,仮想,利用,差出人,folder,fiルータ,名誉教授,thunderbird,受信,id,linux,dhcp,マニュアル,拝見,指示,割り当て,見つける,展開,添付,なる,手順,エラー,グループ,出来る,認証,リモートデスクトップ,web,ファイル,知る,印刷,zip,作成,固定ipアドレス,パソコン,分かる,ウイルス対策,ソフト,反映,保護,プライバシー,システム,事象,起きる,同様,インターン,授業,発行,遠隔,訪問,パスワード,大学,ssid,引き継ぐ,本年度中,可能性,正規,もつ,対応,コミュニティ,欲しい,継続,質問,介す,設定,切断,共有,pn,つなげる,3v,ユーザ名,状況,無線lan,出る,変更,貸し出し,失敗,新しい,先生,複合機,グローバルipアドレス,xxx,よい,onedrive,結果,機能,講義,登録,大阪市立大学,非常勤,問い合わせ,可能,常時,ファイルサーバ,事務,タブ,ieee802,人事,操作,見つかる,雇用,求める,選ぶ,応答時間,問題,くん,個人,ノート,使い方,研究室,割り当てる,ポート,ftp,通信,見る,申請,現在,けんか,君について,ポータルサイト,windows10,ない,非正規,追加,url,留学生,メーリングリスト,購入,学生,univer,sal,パスポート,spss,調べ,テキストマイニング,受ける,状態,10,アップデート,非公開,閲覧,日経テレコン21,有償,desktop,プリンター,開設,ホームページ,webページ,やる,グローバルip,分類,わかる,オフライン,初期化,sharepoint,出す,レポート,提供,ファイアーウォール,無効,返信,自動,付き,一時,休止,unix,引っ越し,全学,届く,特定,宛先,jp,ac,ak,客員研究員,流出,回答,在宅,pc等,リモート,古い,アップグレード,した,macアドレス,自宅,割当てる,windowspc,学部,転送,ホスト,使用可能,共同,対象,短縮url,一覧,無い,掲載,チーム,powerpoint,タブレット,windows,対象者,cc,有効期限,長居,無位,ゲスト,home,長い,ツール,与える,許可,mac,ping,飛ぶ,nw,記事,常勤,あける,usbメモリ,職種,かかる,財務会計,外れる,自動的,以外,振る,機器,居室,問合せ,フォーム,nas,学情,専用,データベース,部署,十分,アプリケーション,ソフトウエア,管理者,microsoftアカウント,要求,各種,one,でる,ip,グローバル,アンケート,アドレス,メンバ,送信,忘れる,ダブルクリック,ウィルス,ウイルス,同期,drive,所属,導入,認証画面,安否確認システム,対策,いう,前期,給与,outlook,案内,一括,調達,初期,事前,loota,動作,再生,自室,手続き,開始,ユーザ,試す,メンバー,のく,ウェビナー,ヘルプ,デスク,it,権限,検討,検索,ページ,設置,不明,部分,阿倍野,停電,試みる,st,配信,最新版,掲示,2020年,仕様,4月,4月1日,特任教授,付け,動画,通知,更新,運用,担当
Topic # 3 :
ネットワーク,する,パスワード,認証,仮想,発行,システム,web,わかる,wi,学生,分かる,できる,fi,申請,教える,利用,全学,登録,追加,なる,メールアドレス,id,ログイン,印刷,プリンター,プリンタ,初期,非正規,変更,アカウント,安否確認システム,zoom,使い方,出来る,メール,繋がる,コミュニティ,作成,忘れる,デスク,ヘルプ,情報,メンバー,研究室,必要,客員研究員,設置,反映,使用,ssid,nw,不明,グループ,fiルータ,自室,学内,it,アクセス,失敗,君について,けんか,固定ipアドレス,職員,初期化,class,一時,休止,やる,グローバルip,学部,分類,ユーザ名,コンセント,居室,unix,迷惑メール,付与,zip,ツール,出す,レポート,共有,教員,よい,usbメモリ,ファイル,欲しい,授業,来客,貸し出し,雇用,届く,特定,宛先,エラー,所属,フォーム,問合せ,手続き,開始,認証画面,許可,与える,新しい,専用,学情,データベース,サーバー,試す,ユーザ,共同,ホスト,使用可能,linux,dhcp,メンバ,見つかる,機能,のく,loota,事前,問い合わせ,受ける,給与,いう,前期,無線,振る,機器,対応,市大,自動的,外れる,可能性,正規,もつ,引き継ぐ,本年度中,人事,現在,参加,非常勤,研究,表示,卒業,見つける,拝見,割り当て,添付,展開,指示,マニュアル,ある,状況,無線lan,継続,介す,求める,出る,留学生,複合機,取得,ない,先生,つなげる,3v,pn,android標準ブラウザ,通る,ieee802,タブ,知る,通信,ポート,ftp,入れる,思う,入る,pdf,可能,サービス,電子ジャーナル,入力,切断,使う,図書館,引っ越し,大学,microsoft,pc,質問,購入,常時,インターネット,アップグレード,古い,した,接続,adobe,財務会計,レルム,切り換える,切れる,有償,番号,office,グローバルipアドレス,端末,固定,sal,パスポート,univer,ipアドレス,計算機,os,リモートデスクトップ,状態,キャンパス,包括,ios,利用可能,map,杉本,2つ,エリア,マーク,ライセンス,iphone,windows,アイコン,書く,thunderbird,2020年,4月,仕様,ipad,設定,阿倍野,サイト,url,ソフト,windows10,応答時間,問題,選ぶ,アップロード,共用,経由,ap,有料,ak,jp,ac,インストール,ネット,結果,契約,容量,ssh,差出人,スパムメール,名誉教授,つながる,証明書,office365,講義,大阪市立大学,操作,くん,行う,macアドレス,ポータルサイト,受信,見る,ファイルサーバ,事務,対象者,メーリングリスト,長い,ダウンロード,onedrive,でる,割り当てる,ms,ログアウト,folder,オフライン,10,アップデート,非公開,日経テレコン21,閲覧,遠隔,調べ,テキストマイニング,再起動,手順,あける,常勤,かかる,自動,返信,転送,チーム,ホームページ,webページ,開設,nas,対象,spss,メール設定,xxx,流出,回答,増やす,削除,提供,無効,ファイアーウォール,リモート,pc等,在宅,パソコン,desktop,vpn,バージョン,あがる,送受信,one,割当てる,windowspc,ゲスト,有効期限,長居,無位,無い,掲載,短縮url,一覧,プライバシー,保護,home,職種,同様,事象,起きる,インターン,ping,飛ぶ,自宅,2013,記事,タブレット,powerpoint,動作,以外,非常勤講師,ウイルス対策,サインイン,cc,上限,個人,ノート,sharepoint,画面,含む,mac,データ,検討,ウィルス,対策,使える,アドレス,グローバル,ip,共同研究,送信,部署,十分,アンケート,訪問,microsoftアカウント,要求,各種,導入,再生,変わる,hp,向け,ドメイン,人事異動,転出,ダブルクリック,管理者,アプリケーション,ソフトウエア,案内,一括,調達,部分,権限,学校,アクセス数,同時,いくつか,付き,検索,使用方法,申請可能,用途,ミーティング,補佐,外部,lan,outlook,ウェビナー,ページ,停電,事前登録,不特定多数,研究発表,完全,タイミング,退学,退職,同期,drive,大量,起動,強制的,誤る,st,病院,講師,医学部,対象外,アンインストール,更新,通知,特任教授,4月1日,付け,ウイルス,動画,掲示,配信,最新版,試みる,担当,運用
@uhfx
Copy link
Author

uhfx commented Jan 24, 2021

216
Run ocu123.py
ocu5_3
Run ocu12345.py
ocu5_5
Run ocu123456.py
スクリーンショット 2021-01-25 2 29 33

@uhfx
Copy link
Author

uhfx commented Jan 29, 2021

295
Run ocu123.py
ocu7-3
Run ocu12345.py
ocu7-5
Run ocu123456.py
スクリーンショット 2021-01-30 2 12 50

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment