<?xml version="1.0" encoding="UTF-8"?>
<rss  xmlns:atom="http://www.w3.org/2005/Atom" 
      xmlns:media="http://search.yahoo.com/mrss/" 
      xmlns:content="http://purl.org/rss/1.0/modules/content/" 
      xmlns:dc="http://purl.org/dc/elements/1.1/" 
      version="2.0">
<channel>
<title>ML Notes — 日本語</title>
<link>https://notes.iwase.dev/ja/</link>
<atom:link href="https://notes.iwase.dev/ja/index.xml" rel="self" type="application/rss+xml"/>
<description>機械学習・深層学習に関するまとめ（日本語版）</description>
<generator>quarto-1.9.37</generator>
<lastBuildDate>Fri, 15 May 2026 00:00:00 GMT</lastBuildDate>
<item>
  <title>Diffusion Language Models</title>
  <dc:creator>Naoto Iwase</dc:creator>
  <link>https://notes.iwase.dev/ja/dllm/</link>
  <description><![CDATA[ 





<p>Diffusion Language Models（DLLM）は、画像生成で成功した拡散モデルの考え方を言語モデリングに持ち込む試みであり、近年 LLaDA や Dream といった大規模な実装例が登場している。本書は、現代的な DLLM を理解するための主要文献を整理し、定式化・サンプリング戦略・連続拡散モデルとの対応関係を体系的にまとめる。</p>



 ]]></description>
  <category>LLM</category>
  <category>Generative Models</category>
  <guid>https://notes.iwase.dev/ja/dllm/</guid>
  <pubDate>Fri, 15 May 2026 00:00:00 GMT</pubDate>
  <media:content url="https://notes.iwase.dev/ja/dllm/images/dllm.png" medium="image" type="image/png" height="76" width="144"/>
</item>
<item>
  <title>One-Step Generation</title>
  <dc:creator>Naoto Iwase</dc:creator>
  <link>https://notes.iwase.dev/ja/one-step-generation/</link>
  <description><![CDATA[ 





<p>2025〜2026年にかけて、拡散モデルや Flow Matching の多ステップ推論を克服し、<strong>1回のネットワーク評価（1-NFE）で高品質な画像を生成する手法</strong>が急速に発展している。本シリーズでは、この分野を牽引する4つの論文をキュレートし、Flow Matching の拡張から全く新しいパラダイムまでの技術的進化を追う。</p>



 ]]></description>
  <category>Deep Learning</category>
  <category>Generative Models</category>
  <guid>https://notes.iwase.dev/ja/one-step-generation/</guid>
  <pubDate>Wed, 11 Feb 2026 00:00:00 GMT</pubDate>
  <media:content url="https://notes.iwase.dev/ja/one-step-generation/images/one-step-generation.png" medium="image" type="image/png" height="76" width="144"/>
</item>
<item>
  <title>Molmo2</title>
  <dc:creator>Naoto Iwase</dc:creator>
  <link>https://notes.iwase.dev/ja/molmo2/</link>
  <description><![CDATA[ 





<p>Molmo2 (Multimodal Open Language Model 2) は、Allen Institute for AI (AI2) とワシントン大学が開発した完全オープンな Vision-Language Model (VLM) ファミリーである。最大の特徴は、<strong>ビデオグラウンディング（video grounding）</strong> 機能を備え、動画内の「いつ、どこで」特定のイベントや物体が発生したかを正確に指し示すことができる点である。</p>
<p>9つの新規データセット（完全にプロプライエタリモデルに依存せず構築）を使用し、オープンソースモデルの中で最高水準の性能を達成している。特に、ビデオポインティングとトラッキングでは、Gemini 3 Pro などのプロプライエタリモデルを上回る性能を示している。</p>
<p><strong>論文</strong>: <a href="https://arxiv.org/abs/2601.10611">arXiv:2601.10611</a></p>
<p><strong>コード</strong>: <a href="https://github.com/allenai/molmo2">github.com/allenai/molmo2</a></p>
<p><strong>Demo</strong>: <a href="https://playground.allenai.org">playground.allenai.org</a></p>



 ]]></description>
  <category>VLM</category>
  <category>Multimodal</category>
  <guid>https://notes.iwase.dev/ja/molmo2/</guid>
  <pubDate>Tue, 03 Feb 2026 00:00:00 GMT</pubDate>
  <media:content url="https://notes.iwase.dev/ja/molmo2/images/molmo2.png" medium="image" type="image/png" height="76" width="144"/>
</item>
<item>
  <title>Olmo 3</title>
  <dc:creator>Naoto Iwase</dc:creator>
  <link>https://notes.iwase.dev/ja/olmo-3/</link>
  <description><![CDATA[ 





<p>Olmo 3 は、Allen Institute for AI (AI2) が開発した 7B および 32B パラメータスケールの完全オープンな言語モデルファミリーである。このリリースは、モデルの全ライフサイクル（すべてのステージ、チェックポイント、データポイント、依存関係）を含む「モデルフロー (Model Flow)」全体を公開している。</p>
<p><strong>論文</strong>: <a href="https://arxiv.org/abs/2512.13961">arXiv:2512.13961</a></p>



 ]]></description>
  <category>LLM</category>
  <category>Reasoning</category>
  <guid>https://notes.iwase.dev/ja/olmo-3/</guid>
  <pubDate>Mon, 02 Feb 2026 00:00:00 GMT</pubDate>
  <media:content url="https://notes.iwase.dev/ja/olmo-3/images/olmo-3.png" medium="image" type="image/png" height="76" width="144"/>
</item>
</channel>
</rss>
