PyTorch | MXNet | |
---|---|---|
.item() |
.asscalar() |
|
.numpy() |
.asnumpy() |
|
.from_numpy() |
.array() |
|
device = torch.device("cuda") |
ctx = mx.gpu() |
|
x = x.to(device) |
x = x.as_in_context(ctx) |
from data import IceSegmentation | |
from model import PhaseFourierTransform | |
import numpy as np | |
import scipy as sp | |
import matplotlib.pyplot as plt | |
import platform, os | |
from skimage import measure, color | |
from mxnet import nd | |
####################################################### |
from data import IcebergDetDataset | |
import matplotlib.pyplot as plt | |
import matplotlib.patches as patches | |
import platform, os | |
####################################################### | |
################## Hyper-Parameter #################### | |
####################################################### | |
if platform.system() == "Darwin": |
记录一下对 Gluon-CV 中 FCN
的笔记。对于深度网络这种复杂模型,代码一般是怎么组织起来的?
记录一些看新闻、刷知乎时候的笔记和想法。
在 如何评价鲍里斯・约翰逊成为新一任英国首相? 看到 POTUS45 的回答,让我想明白了一类问题。就以 鲍里斯 为例,作为聪明绝顶的高材生,为什么脱欧的言论很让我费解?今天我才领会到,政客,不是政治家,政客看选票,想要争取的支持者是什么样的想法他们就会说什么样的话,不一定是出于国家利益。这也就是为什么这一次英国首相的选举,基本全是硬脱欧派,因为保守党的支持者 60% 支持脱欧,而且会有其他支持脱欧的小党派来分散票源。为了获取尽可能多的票,打败工党,鲍里斯的言论似乎也容易理解了。
子曰:“学而时习之,不亦说乎?有朋自远方来,不亦乐乎?人不知而不愠,不亦君子乎?
- 学而时习之的快乐是什么?是有了新理解的喜悦,还是俗物缠身中可以安静学习的喜悦?
- 人不知而不愠,人不知什么?有才而声名不显,还是才名显著但被冷遇(如李白),还是他人不知真相误会你了?
有子曰:其为人也孝弟,而好犯上者,鲜矣!不好犯上,而好作乱者,未之有也。君子务本,本立而道生。孝弟也者,其为仁之本与!
- 首先,这句话是 有子 说的,有氏,名若,字子有(一说字子若),世称 “有子”,孔子弟子,孔门七十二贤之一,被尊为儒学圣贤。有子勤奋学习,看书时担心睡着而用火烧手。《荀子》中提到:“有子恶卧而淬掌,可谓能自忍矣,未及好也。”
Toolbox 既是一种 Blessing,可以让一知半解的我们迅速上手,同时也是一种 Curse,需要考虑很多细节。一点关于 gluon-cv/scripts/segmentation/train.py 的笔记。
parse_args
- model
- dataset
- training hyper params
- cuda and logging
- checking point
- evaluation only
Numpy 和 MXNet 里的的 NDArray 里面的 axis 是和 MATLAB 一样都是列优先的,所以 axis = 0 是每列每列来,axis = 1 则是每行每行来。
NumPy 支持逻辑索引,而 MXNet 的 NDArray 不支持,因此如果要做逻辑索引,需要将其转成 Numpy 数组。
- Data
- Dataset
- Data Transform
介绍说是 MixSoftmaxCrossEntropyLoss
就是 SoftmaxCrossEntropyLoss2D with Auxiliary Loss,但事实上感觉不止于此。
_aux_forward
和 _aux_mixup_forward
的区别在于,_aux_forward
计算 Loss 是调用的 SoftmaxCrossEntropyLoss
,而 _aux_mixup_forward
调用的是 _mixup_forward
。那么 _mixup_forward
同普通的 SoftmaxCrossEntropyLoss
有什么区别呢?
_mixup_forward
中的 label1
和 label2
分别指什么? 这里的 mixup 是指 mixup: Beyond Empirical Risk Minimization 这篇论文里的内容。目标检测任务的优化策略 tricks 中有很形象的插图说明。