Twitter APIの仕様変更のため、「いいね」の新規取得を終了いたしました

黒木玄 Gen Kuroki

@genkuroki

  • いいね数 389,756/311,170
  • フォロー 995 フォロワー 14,556 ツイート 293,980
  • 現在地 (^-^)/
  • Web https://genkuroki.github.io/documents/
  • 自己紹介 私については https://twilog.org/genkuroki と https://genkuroki.github.io と https://github.com/genkuroki と https://github.com/genkuroki/public を見て下さい。
Favolog ホーム » @genkuroki » 2016年06月17日
並び順 : 新→古 | 古→新

2016年06月17日(金)

鰹節猫吉 @sunchanuiguru

16年6月17日

RT メタメタさんが、またくだらないことを…

タグ:

posted at 00:07:25

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 www.math.tohoku.ac.jp/~kuroki/LaTeX/...
正直な話、数週間前まで、正規分布の二つの出し方の関係を理解して無かった。(1)ボルツマン因子exp(−βx^2)の形で出す。(2)半径√nのn-1次元球面上の一様分布の射影のn→∞での極限として出す。

タグ: 数楽

posted at 00:27:55

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 経験分布に関する条件付き大数の法則の最大(相対)エントロピーによる記述でボルツマン因子が出て来ることと、球面上の一様分布を考えることが条件付き確率の意味での「条件」に丁度なっていることの関係に気付けば、それらの関係は明らかな感じになる。

タグ: 数楽

posted at 00:33:49

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 S=-Σp_i log(p_i/q_i) の形で定義される(相対)エントロピーは「エントロピー」という用語の響きに騙されてしまうと難しく見えてしまいますが、「経験分布がp_iになる確率の対数(の1/n倍)」という呼び方で常に言い直すことにすれば、神秘性はゼロになる。

タグ: 数楽

posted at 00:42:38

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 昔の大学入試の問題:二項係数binom(Nn,Nk)のN乗根のN→∞での極限は1/[(k/n)^k ((n-k)/n)^{n-k}]になる。p=k/nとおいて収束先のlogを取ればn(-p log p - (1-p)log(1-p))=n×(エントロピー)になる。

タグ: 数楽

posted at 00:54:23

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 大学入試問題レベルの話まで落としてしまえば、本当に神秘的は響きはゼロになる。

タグ: 数楽

posted at 00:56:02

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽二項分布 binom(n,k)q^k (1-q)^{n-k} の対数の1/n倍を、k/n〜p=一定の条件のもとで、n→∞の極限を計算する問題を、区分求積法に帰着できれば、スターリングの公式にさえ頼らずに、相対エントロピーがどういう仕組みで出てくるかを理解できる。

タグ: 数楽二項分布

posted at 01:04:56

非公開

タグ:

posted at xx:xx:xx

黒木玄 Gen Kuroki @genkuroki

16年6月17日

@genkuroki #数楽 ひとつ前のツイートのタグが #数楽二項分布 になっていた。

タグ: 数楽 数楽二項分布

posted at 06:52:19

りゅう @Ryumaru0113

16年6月17日

@Ryu3toushin 学校で先生が間違えを認めました。ご意見ありがとうございました。

タグ:

posted at 10:21:52

Hal Tasaki @Hal_Tasaki

16年6月17日

京都駅の新幹線ホームでレニーエントロピーの話をしている人がいると思ったら大栗さん @PlanckScale たちであった。ぼくも発車直前までエントロピーの話をしてしまった。

タグ:

posted at 15:28:44

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 例のKullback-Leibler情報量(相対エントロピー)に関する解説ノートVer.0.2(16頁、6頁増えた)。多項分布版の易しい場合のSanovの定理の厳密な証明(スターリングの公式さえ使わない初等的証明)を追加。 www.math.tohoku.ac.jp/~kuroki/LaTeX/...

タグ: 数楽

posted at 18:22:34

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 KL情報量(相対エントロピー)に関する易しい話と条件付き確率の形式で指数型分布族(Boltzmann因子による記述を持つ確率分布達)が自然に現われることは統計力学に興味がない人であっても一般教養として知っておいて損がない知識だと思う。潜在的ユーザーは膨大。

タグ: 数楽

posted at 18:27:27

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 blogs.princeton.edu/sas/2013/10/10... のブログ記事にある解説は読み易いかも。

タグ: 数楽

posted at 20:20:58

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 Kullback-Leibler情報量(相対エントロピー)に関する解説ノートVer.0.2.1(16頁、小さな訂正のみ)。 www.math.tohoku.ac.jp/~kuroki/LaTeX/...

多項分布版のSanovの定理ってスターリングの公式抜きに証明できるんですね。

タグ: 数楽

posted at 20:46:33

黒木玄 Gen Kuroki @genkuroki

16年6月17日

#数楽 多項分布版(=有限集合上の確率分布版)のSanovの定理を証明するためには多項分布に関する常識以上のことは何も使わない。常識1「確率は1以下である」(上からの評価)、常識2「多項分布の確率が最大になるのは分布が母集団分布に等しい場合である」(下からの評価)。

タグ: 数楽

posted at 20:48:45

非公開

タグ:

posted at xx:xx:xx

ゲオルギィ @Gueorgui_USSR

16年6月17日

@Ryu3toushin 先生の擁護をするのつもりはありませんが、もしかしてこの「耳」は×が付いて返ってきたものを一度消して再度書き直しをしたのではないですか? 私も教員ですが、少なくともこの「耳」という漢字を×にする要素はどこにもありません。妹さんに確認をしてください。

タグ:

posted at 23:34:02

りゅう @Ryumaru0113

16年6月17日

@Gueorgui_USSR

沢山消した後が残ってるのは先生の言われた通りに妹が直したのを親が見つけてまた元のあってる字に書き直させたからです!

タグ:

posted at 23:34:56

@genkurokiホーム
スポンサーリンク
▲ページの先頭に戻る
ツイート  タグ  ユーザー

User

» More...

Tag

» More...

Recent

Archive

» More...

タグの編集

掛算 統計 超算数 Julia言語 数楽 JuliaLang 十分 と教 モルグリコ 掛け算

※タグはスペースで区切ってください

送信中

送信に失敗しました

タグを編集しました