
Tetsuya Ogata / 尾形哲也
@tetsuyaogata1
Followers
3K
Following
5K
Media
312
Statuses
1K
早稲田大学教授 / 産業技術総合研究所特定フェロー / 国立情報学研究所客員教授 / Professor, Waseda University / Joint-appointed Fellow, AIST / Visiting Professor, NII
Joined February 2018
Now, our paper is published in Science Robotics (2021 IF=23.748).
#DeepLearning and manual training taught a #robot to open a door successfully more than 96% of the time, completing 15 rounds of back-and-forth in 30 minutes. @tetsuyaogata1 @Hitachi_Japan @HitachiGlobal @waseda_univ @tetsuyaogata1.📎:
6
54
253
これは認識系が主ですが、とてもいい研究だと思いました。.1. 仮想世界を"実環境に近づけるのではなく"、世界の"粗い"構造を学習させるのに用いている.2. 入力画像からsemantic画像やdepth画像を"生成"学習.3. (個人の好みですが)active light sensorではなく、ステレオ視を使っている.
Excited to present our work at #CoRL2021 this week. Our paper shows a promising approach to achieve sim2real transfer for perception. w/ @ToyotaResearch @berkeley_ai (1/7) .
0
40
142
すごい。.強化学習(シミュレーション)を"環境やタスクのモデル化ではなく"、低レベルの身体動作の学習にのみ利用しているのがアイデア。.シミュレーションの限界を把握した上での上手い活用法だと思う。.
Our 6ft humanoid HumanPlus at Stanford can autonomously put on a Nike skateboard shoe, tie shoelaces, stand up and walk. Using two transformers & dual RGB vision, it integrates two recipes of general robotics end-to-end:.- imitating humans in real world.- large-scale RL in sim
1
31
123
@s_kajita 「雑用」ができるロボットができた時に初めて「汎用AI」への道筋が見えると思ってます..「審査員に一向に理解されない」...確かに...審査員の方によるとは思ってはいますが..
1
27
97
@shosakaino @__tmats__ @KohHosoda 高性能すぎない適切なハードを十分に準備して、必要なデータをそれなりの量揃える、ということが最低限の"前準備"、ということは6, 7年前から主張しているんですが、それすらなかなかできないということはありますね。。。.
0
17
98
面白い研究だと思いました。.自然言語研究では言語からスタートするので、“Language”と“World”の“separating”が重要になるとのこと。.ロボット研究では、もともと“Language”と“World”は別に存在するので、どう“grounding”するかが研究課題となるのですが。.
GPT-3のわずか4%の重みで、GPT-3と同程度の性能を叩き出した「RETRO」(OpenAI)についての解説記事( @JayAlammar)がわかりやすかったです。. RETROは、巨大なデータベースから最適な情報を取ってくるように学習されており、パラメータ数を大きく抑えています。頭良すぎます。
1
14
100
音声、音響研究で世界的に著名なカーネギーメロン大学准教授(そして早大OB)の @shinjiw_at_cmu 先生に来訪いただきました。音声、環境音など、マルチモーダル基盤モデルに重要なトピックについてお話をお伺いしました。
0
16
90
Our research progress for #RAL #IROS2022."Deep Active Visual Attention for Real-Time Robot Motion Generation: Emergence of Tool-Body Assimilation and Adaptive Tool-Use".@tetsuyaogata1 @HirokiMori.Paper:
0
19
86
End-to-end autonomy, All neural network, in 2022.
#DeepLearning and manual training taught a #robot to open a door successfully more than 96% of the time, completing 15 rounds of back-and-forth in 30 minutes. @tetsuyaogata1 @Hitachi_Japan @HitachiGlobal @waseda_univ @tetsuyaogata1.📎:
2
9
79
Our collaborating research with AIST for #IROS2023."Force Map: Learning to Predict Contact Force Distribution from Vision".Realtime contact force prediction using only simulation learning.
1
10
74
面白いですね。.何回か書きましたが、.「仮想世界を"実環境に近づける"のではなく、世界の"粗い"構造の事前学習に用いる」.というアプローチが大事と思ってます。.
(1/4) Can sim2robot transfer be improved by *decreasing* simulation fidelity? .Surprisingly, yes! .Research by FAIR and @gtcomputing finds that nav policies trained with *lower* fidelity physics sim resulted in *higher* zero-shot sim2real transfer on @BostonDynamics Spot. 🧵👇
0
8
65
共著に入れて頂いたCVPR2022論文( @HirokatuKataoka さん、 @n_chiba_ さんの仕事)のプレスリリースです。.以前も書きましたが、.「仮想世界を"実環境に近づける"のではなく、世界の"粗い"構造の事前学習に用いる」.というアプローチが大事と思ってます。.
1
10
64
Our research on humanoid robot AIREC at #MOONSHOT Goal 3 .“Realtime Motion Generation with Active Perception Using Attention Mechanism for Cooking Robot”.@namikosaito_.
1
15
57
Preferred Networks との共同研究が、日本ロボット学会欧文誌Advanced RoboticsのBest Paper award (1件) を受賞しました。.
Advanced Robotics Best Paper Awardを受賞しました!!.早稲田大学尾形研との共同研究論文です。.論文:Learning-based Collision-free Planning on Arbitrary Optimization Criteria in the Latent Space through cGANs.@tetsuyaogata1 @HirokiMori @hillbig
2
4
56
加藤真平(@ShinpeiKato)さんにお誘い頂き、CMUを訪れています。Katerina Fragkiadaki教授の講演を拝聴した後、お部屋を訪問しました。私からはAIRoAなどの活動を紹介しました。 その後、 皆さんと日本食で夕食をとった時の写真です。靴を履いての掘り炬燵は違和感がありましたが、美味しかったです。
0
6
54
5/18、応用脳科学コンソーシアム キックオフシンポジウムに、乾敏郎先生、 @TakuyaIsomura 氏、 @kanair_jp 氏、とともに登壇いたします。詳細は下記リンクからご確認ください。.
0
21
48