アソートされたリンクについて、なぜこれを書いているのか?#
これは新しいシリーズの投稿です。このシリーズでは、私が RSS の読み込みを通じて発見した興味深い記事、プロジェクト、論文を共有します。私はDIYgodとRssHub、Minifluxに感謝しています。これにより、インターネット上のさまざまな情報源から魅力的なコンテンツを自由かつ効果的に読むことができます。
Tyler Cowen は頻繁にMarginal Revolutionで興味深いリンクと簡単な要約を共有しています。また、Simon Willisonからも貴重な情報を得ています。彼は LLM の分野で興味深いニュースを共有しています。
これらのブロガーに触発されて、私も同様の方法で個人の興味を共有したいと思っています。これらの投稿は元々私の読書ノートでしたが、それらを共有することはコンテンツを整理するための効果的な方法として機能しています。貴重な情報に加えて、私のリンクのコレクションには面白いものも含まれています。
私の投稿がより多くの人々に興味深い情報を提供できれば素晴らしいです。また、私はさまざまなトピックについての議論を歓迎します。それらはお互いに利益をもたらすと信じています。
Miniflux の読書#
-
replit-codeは、コーディングに特化した因果関係言語モデルです。実際には LLM の因果関係の部分に興味があります。
-
Microsoft は相互作用から報酬を推測するスキームを設計しました。実世界の相互作用のトレーニングビットとして使用できるかどうか、チェックしてみてください。
-
リークされた Google の文書は、LLM の現在の開発を分析するために非常におすすめです。基本的に Google は、オープンソースの LLM が急速に発展しており、Google や OpenAI のクローズドソースの LLM では提供できないいくつかの利点があると考えています。私は個人的に、オープンソースコミュニティが LLM の競争で大きな力を示していることに興奮しています。これは研究分野におけるオープンさを取り戻し、LLM が私たちの生活にどのように影響するかについてのより多くの制御を与える可能性があります。
-
SparseGPTは、再トレーニングなしで LLM の重みを最大 60% 削減することができます。
-
Chip Huyen の投稿では、RLHF についてさらに詳しく説明しています。Chip Huyen は多くの貴重な記事を持つブログライターであり、私はすべてを読む時間がありません。彼女はまた、2022 年の書籍リストも共有しています。
-
Alexander Young から共有されたジョブインタビュープロンプト。彼はまた、ChatGPT の助けを借りてエッセイを書く方法や学習する方法についてのブログ記事もあります。
-
Reality bytes の投稿でカルマンフィルターを紹介します。
いくつかの奇妙なもの...