まつど
- いいね数 102,851/144,366
- フォロー 1,895 フォロワー 2,964 ツイート 80,115
- Web https://scrapbox.io/education/
- 自己紹介 批評とアニメ好き/ラノベ・漫画積読リスト http://scrapbox.io/lightnovel/
2023年03月02日(木)
「大学進学したいんですけど、奨学金は返済が不安で…」って相談してきた学生に「今は子どもを産めば減免措置があるから大丈夫だよ」と教職員がアドバイスしろってのか。その学生のバックグラウンドがなんであれ、奨学金は奨学金で、学ぶことを保障するお金じゃなきゃダメでしょうが。
タグ:
posted at 23:38:26
非公開
タグ:
posted at xx:xx:xx
テクノロイド、知らないおじさんが死んだ謎が、人知れずロボットと交流を深めていた気の良い孤独なおじさんが何故か殺された謎になって、ぐっと緊張感が出て来たな。
タグ:
posted at 22:34:55
"患者家族の医療の知識はテレビドラマに影響を受けていると言われている。NEJMに1994年ごろの人気の医療ドラマ(ER/シカゴホープ/レスキュー911)の蘇生率を調べた研究が載っている。75%の患者は心停止直後から生存し、67%が退院できるまで生存した。" note.com/md_sc/n/nf0409...
タグ:
posted at 22:01:45
非公開
タグ:
posted at xx:xx:xx
Kounosuke OISAKI | 生 @K_Oisaki
認知構造的にもこれはまさにそのとおりで、まずやれることをやってパフォーマンスが出せると、周りがチヤホヤしはじめます。それで良い気持ちになって、「実はこれが自分のやりたいことだったんだ」と錯覚する形で、幸せを獲得する生き物こそが、人間なんだと思います。 twitter.com/kurubushi_rm/s...
タグ:
posted at 21:42:43
アクスタ風に描くのは私が適当にならべてうへうへするためです…並べると雰囲気出ますねウヘ( ੭ ˙꒳˙ )੭♡ pic.twitter.com/3qJsNd5nsq
タグ:
posted at 21:24:51
タイトルとハッシュタグ付き、場合によっては記事を書いた人のアカウント付きででシェアして欲しい人がいるんだと思います。 twitter.com/tanakahisateru...
タグ:
posted at 21:00:12
チームメンバからOJTが終わる若手社員に今後読んでほしい本をプレゼントしまくる会をやりました。人によって全然違うのを選んでてなかなか面白かったです。私はオライリーの情報アーキテクチャを選定しました(重い) pic.twitter.com/EbJSUxo9bF
タグ:
posted at 20:58:47
こういうのってまだ必要なの? いまブラウザって、自分が使ってるサービスで共有する機能もう持ってて、サイト内のこの UI の場所に行かなくても、常時アクセスできる場所から同じことできるんだけど pic.twitter.com/vjTfKTWDCa
タグ:
posted at 20:36:45
普段用PC、TLのアドバイスをぶっちぎって中華ミニPCにしたんだけど、なんというか、このサイズでこのパワーならまあありかなって思い始めている。
いろいろやりたいことは3060乗っているメインPCでやればいいわけだし。
タグ:
posted at 20:25:29
対魔忍アリーナでは「敵の体を乗っ取る精神寄生体」との戦いがあって、最終的に最強の対魔忍であるアサギの体が乗っ取られて大ピンチ!
と思ったら感度3000倍に耐えられず発狂してしまったのでなんとかなった
というシナリオがあったと聞くがめちゃくちゃ美しい展開だと思う
タグ:
posted at 20:19:34
最近の人文書、大衆受けする軽い読みものが増えているように思えて、ちょっと懸念を抱いています。専門知と社会を繋ぐ読みやすい本が増えるのならよいのですが、むしろ学問として成熟しきらない、未完成の研究が本になって出回っているように思えます。
タグ:
posted at 20:07:28
ChatGPTで課題を解かせる、で思ったんですけど、宿題系のコーディング試験を出す企業はchatbot対策が必要になりそうですね。というかライブコーディング以外に有用な試験方法がなくなるかも
タグ:
posted at 19:31:22
いや塾とか家庭教師の全部が悪いとは思わないんだけどさ、高校数学ならとりあえず青チャートやらせとけみたいな生徒を無視した考え方のやつがいる(実話)と思うと教育の「育」どころか「教」すらできないのかよとがっかりしちゃうよね。
タグ:
posted at 19:05:03
[お知らせ] 明日で龍孫江アカウントが凍結されて1か月ですが、先は見えません。解凍も突然らしいのでそれはそうなのですが、なかなか堪えますね。botの仮面を被って大っぴらに愚痴や皮肉は言いにくいのが積もっています、という愚痴でした。失礼しました。
タグ:
posted at 19:00:41
ブログ書きました。ChatGPTがSlackに入ると、周りの人と見ながらブレストできるので、とても便利です。
約1時間でAzure Functions を使用して簡易ChatGPT Botを作成しました|株式会社ジェイテックジャパン zenn.dev/jtechjapan/art... #zenn
タグ: zenn
posted at 18:46:59
理萌(りも)C102 1日目土曜東ワ09 @risounomoewaifu
夏コミc102申し込みました!
観音寺睡蓮の苦悩本です!!!!!
#観音寺睡蓮の苦悩
#c102 pic.twitter.com/TorYfR2ew3
posted at 18:23:37
小学校の教員としては、
「学びを楽しく」
ということを全面に出していきたいんだけど、
大学で専門性を持って学んでいると、
学びが深まったどこかの段階で
「確かに楽しいが、吐くほどつらい。」
に、到達することを知るんだよね。
これを知るまで学んだ経験は、
すごく大きいと思う。
タグ:
posted at 18:11:42
「英語で議論をする」をめちゃめちゃ高度で高尚な理想論だと思ってたり、逆にひろゆき的な論破芸をしなきゃいけないと思ってる人が結構いるようで苦笑してるんだけど、一般論として査読誌に論文通すには英語で議論して相手を説得する必要があるので……これ出来ないと研究が出来ないんです……。
タグ:
posted at 18:10:00
大航海時代の交易品のように、テクストの価値は差異にあると思ってる。つまり他の人が知らない知識や、他の人にない発想。もし自分に、自分だけが語れるような特化した分野があるならそれを扱うのが賢明で、よろず時評家になろうとして埋没するのは拙いやりかた。
タグ:
posted at 17:58:13
ChatGPTのAPIを使ったChatBotを @Gradio で実装した😇。通常のChatGPTより10倍は早い印象🚀🚀🚀。このスピードで75万個の単語を処理してもコストは300円。使わない理由がない👏。 twitter.com/gijigae/status... pic.twitter.com/G0t64peliD
タグ:
posted at 17:42:58
今まで『食育』みたいなモンに何の関心も無かったのですが、アメリカ人のスーパー肥満社会を見ていると、アメリカの家庭から主婦が消えて、外食やテキトーな食事で回す事の弊害が具体化した状態なんだろうなと思う。なので私はフェミとは違う文脈で、主婦労働は大切だし価値があると考えてますね。
タグ:
posted at 17:40:56
面白い現象で、「私は5時間寝れば充分な体質なんです」とか言ってる精神科患者に薬飲ませて8時間熟睡とかを体験させると次から「最近6時間しか眠れないんです」って言うようになるんよね
タグ:
posted at 17:00:10
LLaMAのモデルダウンロード手順、URLをそのまま踏んでもダメでGitHubレポジトリのクローンとファイルの書き換えが必要だったり、シェルスクリプト(.sh)しか用意されてなくて生Windowsお断りだったりするの、雑に扱われてニュースメディアから殴られないための自衛って感じがする
タグ:
posted at 16:53:43
きらぷか@スプシAPI化&積読のサービス @kira_puka
mac mini、ついにディスプレイを3枚にしたぞ(*´ω`*)
Chrome、Twitter、Youtube。完璧な布陣(*´ω`*)
タグ:
posted at 16:13:34
多すぎて困ると言いながらも本を買っていたのは、将来に多少は希望が持てたからだったのだと最近わかった。これから先、収入が増えて広い所に引っ越せる見込みがなくなったので、本を減らすことにした。下手するともっと狭い所に移らなければならないかもしれないし。
タグ:
posted at 15:06:17
ChatGPT APIが公開されるより前に公開されていたdavinci API、これがまさかopenAI側から「ほぼGPT-4」って言われてるなんて、、、
タグ:
posted at 13:54:44
かつて「インターネットは知の高速道路」と言われたけど、最近のAIは知のどこでもドアだな。頭の中にその領域の全体像となるマップを持っていなくても、行きたい場所にひとっ飛びで行ける。
タグ:
posted at 13:00:11
堀川宏『しっかり学ぶ初級古典ギリシャ語』 @graecamdiscamus
RTした J. Morwood, Oxford Grammar of Classical Greek は文法の要点がコンパクトにまとまった良書ですね。講読の際には変化表を不断に確認することが必要ですが、それがとてもしやすいように設計されていて、基本的な文法事項の解説も明快。『しっかり学ぶ』の次の一冊としてもお勧めできます! twitter.com/marutoki/statu...
タグ:
posted at 12:20:31
非公開
タグ:
posted at xx:xx:xx
ADHD国立大生(こくりつさん) @ADHD_oniisan
バイトを辞める理由として、
「自閉症とADHDがあります」
そう上司に伝えました。
そしたら、
「いやーでも君それは嘘ついてるよ?うちで働く前からわかってたことじゃんそれって」と言われた。
どうやら世間では障害を公表せず働く
ことは嘘つきに当たるみたいです。
タグ:
posted at 11:59:06
「知的障害を伴わないASD児の母親は、他のあらゆる病気・障害の子供の母親と比べても、うつ病の人の割合が高い」
という衝撃の研究結果が存在します。それだけ大変なんですよ。理解されてないんですよ。
父親に関してはこういう研究がないところに、日本のお母さんの大変さが出ているなとも思います
タグ:
posted at 11:10:59
プラトンは全ての著作が現存するため,その執筆順(年代)に関心が向けられてきました.本書はその研究史をまとめたもの.それぞれの研究の仕方(20世紀後半になるとコンピュータが登場)に各時代の歴史観やプラトンへの眼差しが現われているよう思えますし,年代記を研究する意義も考えさせられます. pic.twitter.com/2U5LyHwKzR
タグ:
posted at 09:00:01
ChatGPTでも長期会話、GPT-3.5でも会話記憶を大量に持たせたときに、少しずつ破綻するって話があったと思うんだけど、あれって、テキストを学習するときに最大トークンまできっちり埋め込んだ学習量が、そうじゃない学習より少ないからじゃない?
つまり最大トークン数よりも少ない方が安定しそう
タグ:
posted at 08:48:19
やりたくないことをやっても全然好きにならないタイプの人はいるんだけど、それは「やりたいことがある人」とほぼ一致してるんだよな。つまり「やりたいことがある人」はとっくに行動してるし、「やりたいことが見つからない人」は何やっても適応できる。後者は先に行動したほうがいい。 twitter.com/kurubushi_rm/s...
タグ:
posted at 08:44:47
「一連のシステム全体の最適化により、ChatGPTのコストを12月以来90%削減しました。これにより、私たちはAPIユーザーにその節約分を提供するようになりました。」
私がOpenAIに入ろうと決めた時ChatGPTを知りませんでしたが、この様な開発力があるオールスターチームなので入りました。 pic.twitter.com/CB7jmJ6rjg
タグ:
posted at 07:28:49
アリストテレスがレトリックの例をたくさん見て(「機械学習」的に)三段論法を発見したように、ChatGPTの学習においても、ウェブ上のテキストなどをたくさん見て「三段論法を発見」できただろうと想像することができるのです
タグ:
posted at 04:49:51
直感に反して、ニューラルネットでは単純な問題よりも複雑な問題の方が解きやすいということだ。その大まかな理由は、「重み変数」が多いと、最小値へ導く「様々な方向性」のある高次元空間ができ、一方、変数が少ないと、「出る方向」のないローカルミニマムにはまり込みやすくなるからと思われます。
タグ:
posted at 03:49:37
今期アニメ、放送前はこんな感じ
twitter.com/sagara1/status...
かなー、と思ってたら。
蓋を開けてみたら、おにまい、TRIGUN(、とんスキ)が期待に応えて素晴らしかったのに加えて。
特にもういっぽん!、転生王女と天才令嬢の魔法革命、そして冰剣の魔術師が世界を統べるが予想外に大変面白くて、
タグ:
posted at 03:17:38
にゃん太朗(仲良くしましょう) @sokonasigenki
日本で家が余ってるのになぜ供給増やすのか。
働くことでお金を給付する仕組みだからだよ。必要なくても家を作って売るという、ほぼムダな環境破壊を、給料、利益をゲットするために続けてる。
豊かな国で、雇用でお金を供給する仕組みを続けるのは無理だよ。全員にベーシックインカムが必要です。
タグ:
posted at 00:35:10
Yusuke Hayashi 林祐輔 @hayashiyus
「モデルのパラメータ数を大きくするほど汎化誤差が減少する」という(驚異の)スケーリング則は,Transformerだけでなく,CNNなどの深層学習モデル,ChatGPTなどのLLMでも観察されている
このスケーリング則は,多様体仮説を仮定すれば説明できる,という論文
jmlr.org/papers/v23/20-... pic.twitter.com/f2rTrAs5M8
タグ:
posted at 00:34:32