Twitter APIの仕様変更のため、「いいね」の新規取得を終了いたしました

まつど

@matsudotsuyoshi

  • いいね数 102,851/144,366
  • フォロー 1,895 フォロワー 2,964 ツイート 80,115
  • Web https://scrapbox.io/education/
  • 自己紹介 批評とアニメ好き/ラノベ・漫画積読リスト http://scrapbox.io/lightnovel/
Favolog ホーム » @matsudotsuyoshi » 2018年02月27日
並び順 : 新→古 | 古→新

2018年02月27日(火)

Yutaka Hirata @yutakakn

18年2月27日

マネジメント力はある意味会社と戦う力でもあります。上下関係があるからと言って、上からの要求を安易に受け入れると、自身が潰れます。それは技術力が低いからではないのです。いくらスキルが高くても、工数には限りがあります。できる人ほど仕事は断ることが多いです。

タグ:

posted at 23:56:01

非公開

タグ:

posted at xx:xx:xx

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

日本語に訳されるといいなと思っているのは、Thinking in Circles About Obesity: Applying Systems Thinking to Weight Management.です。前にシステム・ダイナミクスの記事で紹介したものです。『問題解決大全』で紹介した因果ループ図を駆使して肥満に挑んでます。

タグ:

posted at 23:06:57

非公開

タグ:

posted at xx:xx:xx

元ニート2号(一浪) @neet2go

18年2月27日

かつて公認会計士の試験がどんなものかと思い、簿記とか管理会計論とかの参考書を開いたら絶望してしまったのだけど、今日企業法とか監査論の参考書や問題集をみたら割と大したことなさそうだった(択一はセンター試験程度の負担に見えた)ので、簿記等を後回しにして勉強してみたい。(本末転倒感)

タグ:

posted at 22:09:11

☔️ @nardtree

18年2月27日

Github page上に構築できます。
Rubyのフレームワークが使えるのでそれを使ってます

#peing #質問箱 peing.net/ja/qs/24139960 pic.twitter.com/SVd4IDZNvf

タグ: peing 質問箱

posted at 22:01:41

Kyosuke Nishida @kyoun

18年2月27日

Efficient Neural Audio Synthesis (Google DeepMInd) arxiv.org/abs/1802.08435 (1) dual softmax層を持つ単層のRNNとしてWaveRNNを提案,WaveNetと同程度の品質で実時間より4倍高速に音声合成.(2) pruningしてsparse化,モバイルのCPUで実時間音声合成.(3) 一度に多重サンプリングして効率化. pic.twitter.com/t3HCg7UW4r

タグ:

posted at 21:58:33

元ニート2号(一浪) @neet2go

18年2月27日

放送大学卒の公認会計士試験独学合格ワープア者兼データサイエンティストとなることにより、我が国の放送大学化を促す装置と化していきたい。

タグ:

posted at 21:47:49

yurfuwa @yurfuwa

18年2月27日

アプリ層の推論ユースからPyTorchを見ると、鯖で学習済みモデルの展開を含めた起動が高速な利点はあります。Tensorflowはともかく起動がもたつく上に、推論ユースでは使わないモジュールが多すぎるので切り出したい。 twitter.com/icoxfog417/sta...

タグ:

posted at 20:06:36

新免@アニメと声優を語る人 @shisomeso_1009

18年2月27日

ゲーム世界が舞台の異世界モノである『デスマ』は、同じくゲーム世界の『SAO』などに比べて、場面表現においてゲーム感を徹底している辺りは評価できるけど、物語展開としては『イセスマ』などと似たようなもので、あまり新しい感じは無い。あと、キャラ配置が『GATE』と少し似ている気もする。

タグ:

posted at 18:42:06

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

何事が中途半端に終わってしまうのは、移り気で関心が多過ぎるからではなく、ただそのことに選ばれなかったのだと考えれば、自責の念に駆られることはなくなります。あることに選ばれることを、例えば人は才能と呼ぶのかもしれません。

タグ:

posted at 18:22:00

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

人間が取り組むタスクには、複雑過ぎて長期の没入を必要とするものがあります。今はこう考えています。教えてもらった表現ですが、例えばある人が小説を書き続けるのは、その人が小説に選ばれたからだと。逆にある人が小説を書くに飽きるのも、限界を感じて諦めるのも、小説に選ばれなかったのだと。

タグ:

posted at 18:19:27

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

誰しも全てのことができるわけではありませんが、何も できないわけでもありません。たいへん失礼ながら、まず必要なのは、実効可能な学習計画を考えてみることではないでしょうか?どれだけの時間がとれ、その時間で自分がどれだけのことができるか、工夫の余地はないか等で、全ては決まります。

タグ:

posted at 18:06:45

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

何をすべきか具体的な課題分析ができると、例えばAnkiを使った記憶学習は隙間時間に回せますし、机に座れる貴重な時間を最も必要なタスクに割り当てることもできますし、結果として複数の分野を同時並行に学習する可能性も増していきます。

タグ:

posted at 17:59:31

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

実は目標が具体化できると、工夫の余地が生まれます。例えばプログラミングに必要な英語または数学なら、同時に学ぶことは可能であるだけでなく必要ですらあります。しかしこれも能力によるのは言うまでもありません。英語を殆ど読めないレベルでは不可能だからです。

タグ:

posted at 17:52:41

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

能力と条件と申し上げたのは、限られた時間でどれだけのことが可能かは能力により、どれだけのことが必要かは条件によるからです。例えば「英語ができるようになりたい」というだけでは所要時間が見積もれません。それどころか何をすればよいかすら考えることができません。

タグ:

posted at 17:45:58

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

学習者の能力と条件、目標、使える時間等によります。例えば受験生は必要な科目を同時並行に学ばなくてはならず、そのための戦略と時間確保を強いられます。社会人の場合は使える時間から考えることになるでしょう。
#マシュマロを投げ合おう
marshmallow-qa.com/kurubushi_rm?u... pic.twitter.com/CAMBx3okld

タグ: マシュマロを投げ合おう

posted at 17:37:58

Daisuke Okanohara / @hillbig

18年2月27日

GANの作者であるGoodfellow がGANの論文たくさんあって何から追えばいいかわからない人向けに10個の論文を推薦しています。理論、符号化、差分プライバシー、高精細、多クラス、条件付けなど twitter.com/timnitgebru/st...

タグ:

posted at 12:48:39

piqcy @icoxfog417

18年2月27日

PyTorchは内部の実装がどうにも洗練されてなくて、使うならChainerの方がいいというのが個人的な印象。なお、チームではKeras/TensorFlowがメイン。

特にRNNBaseの実装はオブジェクト指向とは一体みたいな実装なので、ソフトウェア工学的な人が中にあんまりいない気がする
github.com/pytorch/pytorc...

タグ:

posted at 12:36:56

Willy OES ☀ @willyoes

18年2月27日

英語ができて悪かったと思うこと

・日本に帰りたいが日本で働きたくないジレンマ
・給料は高いが物価も高い
・外国人とだと会話が浅くなる
・日本以外の国も希望がないと分かる
・映画を結局英語字幕で見てしまう
・海外情報は今や日本にいても手に入る
・日本に帰ると浮く

デメリットは半端ないです

タグ:

posted at 11:13:15

sat @satoru_takeuchi

18年2月27日

hello worldをひたすら深掘りしていく本はいくつかあるので、別アプローチとしてwebのリクエストの

webクライアント -> ネットワーク -> アプリ -> ミドル(RDBとか) -> ドライバ -> デバイス

っっていう一連の流れを説明したいと思っているのです。全部わかってる人って多分あんまりいない

タグ:

posted at 10:34:51

豆腐小僧 @KatagiriSo

18年2月27日

考えたいことと調べたいことがありすぎる。が、記憶力がないのでアウトプットを増やさないとやったことがすべて消えてしまう。

タグ:

posted at 10:34:29

梨籠 @nashikago

18年2月27日

@kurubushi_rm 「絞って勉強するべきか」という問に答えていないように思えるので、(素人ながら)勝手に補足させてもらいます。
勉強では、ある科目の部分を十分に理解すると、他の部分も理解しやすくなります。
これは「学習の転移」と呼ばれ、得意な科目を極めることで、他の科目にも好影響を与えるようです。

タグ:

posted at 09:30:33

Hirokatsu Kataoka | @HirokatuKataoka

18年2月27日

大変魅力的なチュートリアル。「コンピュテーショナルイルミネーション」 「大規模深層学習」 「3D物体検出とロボットビジョンへの応用」を一度に勉強できる。次の研究フォーカスもここら辺にあると思います。 twitter.com/ssii_pr/status...

タグ:

posted at 09:14:09

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 10. You should be a little bit aware of the "theory of GAN convergence" space, one of my favorites is arxiv.org/abs/1706.04156

タグ:

posted at 07:21:35

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 9. You should be a little bit aware of the "GANs with encoders" space, one of my favorites is arxiv.org/abs/1701.04722

タグ:

posted at 07:20:42

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 8. Making all ML algorithms differentially private by training them on fake private data generated by GANs www.biorxiv.org/content/early/...

タグ:

posted at 07:19:52

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 6. WGAN-GP arxiv.org/abs/1704.00028 : probably the most popular GAN variant today and seems to be pretty good in my opinion. Caveat: the baseline GAN variants should not perform nearly as badly as this paper claims, especially the text one

タグ:

posted at 07:18:10

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 5. Are GANs created equal? arxiv.org/abs/1711.10337 A big empirical study showing the importance of good rigorous empirical work and how a lot of the GAN variants don't seem to actually offer improvements in practice

タグ:

posted at 07:11:47

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 4. pix2pixHD (GANs for 2-megapixel video) www.youtube.com/watch?v=3AIpPl...

タグ:

posted at 07:10:28

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 3. Projection discriminator: openreview.net/forum?id=ByS1V... (from the same lab as #2, both techniques work well together, overall give very good results with 1000 classes) Here's the video of putting the two methods together: www.youtube.com/watch?time_con...

タグ:

posted at 07:09:05

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 2. Spectral normalization: openreview.net/forum?id=B1QRg... (got GANs working on lots of classes, which has been hard)

タグ:

posted at 07:07:47

Ian Goodfellow @goodfellow_ian

18年2月27日

@timnitGebru 1. Progressive GANs: arxiv.org/abs/1710.10196 (probably the highest quality images so far)

タグ:

posted at 07:07:10

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

教科書がある場合は、目次をチェックした後、ざっと最後まで流し読みするのをお勧めします。分からないところだらけでしょうが、分からなくて当然なので、止まらず読み飛ばしましょう。すべてのページに風を通すくらいの心持ちでやればよいです。再開のための仕込みをしておく感じでしょうか。

タグ:

posted at 06:57:13

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

荒っぽくていいのでなるべく短時間に全体像をつかむこと、細かいところはとことん後回しにしてまずは一周目を終えること。
これをやっておくと余計な焦りが軽減するとともに、その後の繰り返しで細部をおさえていくのも効率的にやれます。

タグ:

posted at 06:53:27

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

まず「完璧を目指さない」そして「全体を薄く繰り返す」塗り壁アプローチが基本方針です。
このためには「英語をマスターする」という抽象的目標ではなく(これでは最後まで行けず何周もやるなんて不可能)、
「まずはこの問題集をやり切る」といった具体的目標が必要です。

タグ:

posted at 06:49:05

読書猿『独学大全』14刷26万部、『文章 @kurubushi_rm

18年2月27日

「圧倒される量」を理由に学ぶことを断念すると、撤退を繰り返すことになり、最悪何も学べなくなります。また同じことだけやり続けるやり方は効率は下がることが知られています。ではどうするかはスレッドに続く。
#マシュマロを投げ合おう
marshmallow-qa.com/kurubushi_rm?u... pic.twitter.com/kobceWjmYM

タグ: マシュマロを投げ合おう

posted at 06:42:31

非公開

タグ:

posted at xx:xx:xx

V @voluntas

18年2月27日

そもそも ErlangVM ってファイルの読み書き弱い。Elixir だから早くなるということは特に無いです … 。

タグ:

posted at 00:26:46

@matsudotsuyoshiホーム
スポンサーリンク
▲ページの先頭に戻る
ツイート  タグ  ユーザー

User

» More...

Tag

» More...

Recent

Archive

» More...

タグの編集

はてなブログ note マシュマロを投げ合おう インフラ勉強会 数楽 水星の魔女 物語シリーズ Qiita abst_bot 統計

※タグはスペースで区切ってください

送信中

送信に失敗しました

タグを編集しました