<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Zhiyuan Li</title>
    <link>https://zhiyuan1i.github.io/</link>
    <description>Recent content on Zhiyuan Li</description>
    <image>
      <title>Zhiyuan Li</title>
      <url>https://zhiyuan1i.github.io/images/papermod-cover.png</url>
      <link>https://zhiyuan1i.github.io/images/papermod-cover.png</link>
    </image>
    <generator>Hugo -- 0.155.3</generator>
    <language>zh-CN</language>
    <lastBuildDate>Sat, 21 Feb 2026 10:44:23 +0000</lastBuildDate>
    <atom:link href="https://zhiyuan1i.github.io/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>DPLR（Diagonal Plus Low Rank）的数学原理：显式转移矩阵的并行计算</title>
      <link>https://zhiyuan1i.github.io/posts/dplr-mathematics/</link>
      <pubDate>Sat, 21 Feb 2026 10:44:23 +0000</pubDate>
      <guid>https://zhiyuan1i.github.io/posts/dplr-mathematics/</guid>
      <description>深入推导 DPLR 的 chunk-wise 并行算法，理解显式对角&#43;低秩转移矩阵的 WY 表示，探讨其与 KDA/IPLR 的统一框架</description>
    </item>
    <item>
      <title>KDA（Kimi Delta Attention）的数学原理：从矩阵乘法到 Affine 变换</title>
      <link>https://zhiyuan1i.github.io/posts/kda-mathematics/</link>
      <pubDate>Tue, 17 Feb 2026 03:00:00 +0000</pubDate>
      <guid>https://zhiyuan1i.github.io/posts/kda-mathematics/</guid>
      <description>深入推导 KDA 的 chunk-wise 并行算法，从矩阵乘法的基本引理出发，建立 Affine 变换的理论框架，理解 WY 表示和 CP 并行的数学基础</description>
    </item>
    <item>
      <title>本站技术栈</title>
      <link>https://zhiyuan1i.github.io/posts/tech-stack/</link>
      <pubDate>Mon, 16 Feb 2026 00:00:00 +0000</pubDate>
      <guid>https://zhiyuan1i.github.io/posts/tech-stack/</guid>
      <description>介绍本站使用的技术栈和搭建过程</description>
    </item>
    <item>
      <title>关于我</title>
      <link>https://zhiyuan1i.github.io/about/</link>
      <pubDate>Mon, 16 Feb 2026 00:00:00 +0000</pubDate>
      <guid>https://zhiyuan1i.github.io/about/</guid>
      <description>&lt;h2 id=&#34;zhiyuan-li&#34;&gt;Zhiyuan Li&lt;/h2&gt;
&lt;p&gt;AI Infra 工程师，目前就职于 &lt;a href=&#34;https://www.moonshot.cn/&#34;&gt;Moonshot AI&lt;/a&gt;。&lt;/p&gt;
&lt;p&gt;工作以来一直专注于 &lt;strong&gt;Linear Attention&lt;/strong&gt; 方向的高效实现与优化，很荣幸能参与到 &lt;a href=&#34;https://github.com/MoonshotAI/Kimi-Linear&#34;&gt;Kimi Linear&lt;/a&gt; 和 &lt;strong&gt;Kimi Delta Attention (KDA)&lt;/strong&gt; 的开发工作中，向团队里的优秀同事们学习了很多。&lt;/p&gt;
&lt;hr&gt;
&lt;h3 id=&#34;-关注领域&#34;&gt;🔬 关注领域&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Linear Attention&lt;/strong&gt;：探索次二次复杂度的序列建模方法，让长序列更高效&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;高效推理优化&lt;/strong&gt;：CUDA 内核优化、内存带宽优化、Tensor Core 加速&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;模型架构&lt;/strong&gt;：RWKV-6/7、Gated DeltaNet 等新型注意力机制&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;-开源贡献&#34;&gt;🚀 开源贡献&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;参与了 &lt;a href=&#34;https://github.com/fla-org/flash-linear-attention&#34;&gt;&lt;strong&gt;flash-linear-attention&lt;/strong&gt;&lt;/a&gt; 社区项目 - Efficient implementations of state-of-the-art linear attention models&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;-文章分享&#34;&gt;📝 文章分享&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&#34;https://zhuanlan.zhihu.com/p/1989809041849988324&#34;&gt;从零开始学 KDA-1&lt;/a&gt; - 以 Infra 视角理解 KDA 并行化&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;h3 id=&#34;-关于本站&#34;&gt;💬 关于本站&lt;/h3&gt;
&lt;p&gt;这里记录我在 AI Infra 领域的学习心得、技术笔记和一些不成熟的想法。水平有限，如有错误欢迎指出，期待与大家的交流。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;联系方式：&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;GitHub: &lt;a href=&#34;https://github.com/zhiyuan1i&#34;&gt;@zhiyuan1i&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;知乎: &lt;a href=&#34;https://www.zhihu.com/people/f6hoks&#34;&gt;@lizhiyuan&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Email: &lt;a href=&#34;mailto:lizhiyuan@moonshot.cn&#34;&gt;lizhiyuan@moonshot.cn&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description>
    </item>
  </channel>
</rss>
