Explore tweets tagged as #AmoebaNet
@NASNETou
那須音トウ / Nasune Tou
7 years
DARTS: Differentiable Architecture Search. NASNetのような強化学習でも、AmoebaNetのような進化型計算でもない、微分可能なニューラルネット構造探索手法が登場。.予め探索対象となる構造を内包しており、重みの最適化と構造の最適化を交互に行いながら最適な構造を探索。
Tweet media one
Tweet media two
0
44
136
@quocleix
Quoc Le
7 years
Bigger models are better models so we built GPipe to enable training of large models. Results: 84.3% on ImageNet with AmoebaNet (big jump from other state-of-art models) and 99% on CIFAR-10 with transfer learning. Link:
Tweet media one
6
123
365
@arutema47
arutema47
3 years
学生と今更EfficientNet輪講していてNASより計算効率の良いモデルになる理由がよくわかりませんでした。。.AmoebaNetは解像度は224でfixしているため、解像度も大きくすることでEffNetは演算効率も改善できてるのかな
Tweet media one
0
1
2
@JeffDean
Jeff Dean
7 years
We just posted new DAWNBench results for ImageNet classification training time and cost using Google Cloud TPUs+AmoebaNet (architecture learned via evolutionary search). You can train a model to 93% top-5 accuracy in <7.5 hours for <$50. Results:
Tweet media one
6
203
555
@TerryUm_ML
Terry Taewoong Um
6 years
CNN Benchmark (from "NetScore" by Alex Wong, Oct 2018).- Best Acc: AmoebaNet-NASNet-SENet, .- Best Info Density: SqueezeNext-TinyDarkNet-SqueezeNet.
Tweet media one
0
5
13
@lc0d3r
Sergii 🇺🇦
7 years
Even bigger DNNs by Google Brain - GPipe: Efficient Training of Giant Neural Networks using Pipeline Parallelism - "supports models up to 2-billion parameters" and "a new 557 million.AmoebaNet SOTA with 84.3% top-1 / 97.0% top-5 accuracy on ImageNet" -
Tweet media one
1
6
3
@hardmaru
hardmaru
6 years
Efficient neural architecture search methods used to find better architecture design choices for object detection. Impressive results over YOLOv3, RetinaNet, MaskRCNN, AmoebaNet.
Tweet media one
Tweet media two
Tweet media three
@slashML
/MachineLearning
6 years
EfficientDet: Scalable and Efficient Object Detection
3
34
160
@NASNETou
那須音トウ / Nasune Tou
6 years
従来の4倍くらいのparamなGPipeのAmoebaNet-B(6, 512)で+1%~+2%程度なあたり、パラメータ数増やす方向性は有効なんだけど計算機的に辛そう.
Tweet media one
0
0
2
@DillonLaird
Dillon Laird
6 years
A fun series of “AutoML” papers to go through with corresponding code:. AmoebaNet MnasNet NAS-FPN .Auto-DeepLab
0
10
30
@NASNETou
那須音トウ / Nasune Tou
7 years
BERT、BigGAN、GPipe.前期も含めればAutoAugment、AmoebaNetあたりの大規模手法で岐路に立った人は多いんじゃないかと思う2018年。.
1
7
34
@NASNETou
那須音トウ / Nasune Tou
7 years
構造探索系手法.CIFAR-10 Top1 Error比較. NASNet(-A): 3.41% (3.3M).500GPU 3-4日. PNASNet: 3.63% (3.2M).100GPU 1.5日. ENASNet: 3.54% (4.6M).1GPU 0.45日. AmoebaNet(-A): 3.34% (3.2M).450GPU 2-5日. (new!)AlphaX ? (?).17GPU 5日.
1
8
26
@NASNETou
那須音トウ / Nasune Tou
6 years
ResNet以降。ResNetが優秀すぎてResNetを強くする方向(preact、ResNeXt、SENet等)か、良い構造自体を自動探索する(NASNet、AmoebaNet、DARTS等)に振り切っちゃってて難しい。.ResNet以外の構造の提案(DenseNet、FishNet等)もあるんだけど、そっちは余り重視されてないみたいだし。.
0
7
42
@NASNETou
那須音トウ / Nasune Tou
6 years
人「1万時間取り組めばプロになれる」.NASNet「4.8万GPU hoursなのでプロ」.AmoebaNet「8.6万GPU hoursなのでプロ」.
0
2
9
@martin_gorner
Martin Görner
7 years
AmoebaNet by the way is really interesting. Its architecture itself has been computer-generated. This post compares various approaches to architecture search: evolutionary algorithms, reinforcement learning and handcrafting:
1
4
6
@NASNETou
那須音トウ / Nasune Tou
7 years
@_tkato_ arXiv上には知る限り、例のヤツより精度が上回る手法が3つあります。. ニューラル構造の進化型計算AmoebaNet. ImageNetで学習したNASNet-A Largeの転移学習. 画像前処理の強化学習+ShakeDrop.(知る限り今のSoTA、Err=1.48%).
1
8
20
@JeffDean
Jeff Dean
7 years
More info about AmoebaNets:. Open source AmoebaNet implementation:.
0
35
68
@NASNETou
那須音トウ / Nasune Tou
7 years
Regularized Evolution for Image Classifier Architecture Search、更新が入ってますね。AmoebaNet-B以外の結果が増えてる…まさか今も回してるのか。.
0
3
8
@NASNETou
那須音トウ / Nasune Tou
7 years
単純な数値列挙比較なので、あまり正当性がない。なお、AmoebaNetとAlphaXの下2つは他と方式がちょっと違う(はず)。. NASNet. PNASNet. ENASNet. AmoebaNet. AlphaX.
0
2
6
@jaguring1
小猫遊りょう(たかにゃし・りょう)
7 years
AmoebaNetってグーグル検索すると、英語と中国語の記事しか見つからないな。NASNetとかPNASNetとかAmoebaNetとか、この辺の発展(に限らず、機械学習全般)に対して、日本が完全に出遅れてることが目に見えて分かる。もう100周ぐらいは遅れてる。.
1
3
6