PaperFlow / vol. 01 · 2026 / 第一卷 · 2026
Manifesto 缘起 Index 目录 Privacy 隐私
Install →安装 →
No. 001 · The Reader · open-beta Chrome extension 第 001 号 · 阅读器 · Chrome 扩展 · 公测中 Issued · May 2026 发行 · 2026 年 5 月 arXiv  /  PDF  /  ar5iv arXiv  /  PDF  /  ar5iv

Read papers like a researcher, not a tab hoarder.001

研究者 那样读论文, 而不是囤积标签的人。001

What

A reading desk with an AI in the margin.

How

Citation-aware. Quiet until you ask.

Who

Your keys. Your model. Local-first.

是什么

一张书桌,AI 住在页边。

怎么读

识别引文。你不问,它不响。

谁掌舵

你的密钥,你的模型,本地优先。

scroll  ↓ 向下 ↓
Defn.
释义

paper · flow /ˈpeɪpə fləʊ/

纸 · 流 /zhǐ liú/

n.   noun   ·   uncountable
  ·   不可数

1.Reading papers without losing your place — or the thread of why you started.

2.A Chrome extension that turns PDF tabs into a quiet, AI-assisted reading desk.

1.读论文时不再丢失批注、位置,以及最初翻开它的理由。

2.一个把 PDF 标签变成安静的、AI 协助的阅读桌的 Chrome 扩展。

— I. The Manifesto
— 一 · 缘起

Reading is not collecting. Reading is finishing.

读,不是 收集读,是把它读完。

You open a preprint at 10:42 a.m. By 6:13 p.m. it's still unread, wedged between thirty tabs that all promised the same thing.

A paper deserves more than a tab. It deserves a desk.

PaperFlow is a reading desk — the AI lives in the margin. You highlight; it remembers. You ask; it answers from the passages it read.

早上 10:42 打开 preprint,下午 6:13 还没读,挤在三十个同样许诺的标签之间。

一篇论文值得的,不是标签页,而是一张书桌。

PaperFlow 是一张书桌——AI 住在页边。你划线,它记住;你提问,它从你读过的段落里回答。

Pl. I  ·  the reader
图版 一 · 阅读器

A spread, not a sidebar.

是一页跨页,不是侧栏

arXiv:2403.04816 · cs.LG§3.2
↳ compare to Switch Transformer routing — does the quantized router help under load imbalance?
↳ 与 Switch Transformer 的路由对照——量化路由器在负载不均衡时还有效吗?

Sparse Mixtures of Discrete Retrievers for Open-Domain Reasoning

L. Aldana, J. Park, M. Petrov, S. Yeo  ·  2024

3.2  Routing. We introduce SMoDR, a sparse mixture of discrete retrievers that decouples retrieval from reasoning at the token level[3]. By routing only the top-k experts per query token, SMoDR achieves a 2.4× speedup over dense baselines while improving exact-match by 3.1 points[7].

route = 𝔼q∼𝒬[ −log Σk∈𝒯q πθ(k|q)·s(k,q) ]   (3)

The router is trained jointly with a contrastive objective, similar in spirit to prior work on sparse MoE[12], but with a quantized expert identity that compresses the dispatch tensor by an order of magnitude.

— 7 —
ChatNotesOutline 对话笔记大纲 haiku-4.5
You · 14:02
Plain English: what does eq. 3 actually do?
PaperFlow
It's a router loss. For each query q, only the experts in the top-k set 𝒯q contribute[3]; the model is rewarded when those experts score the query well. The trick is decoupling routing from reasoning[5].
You · 14:06
Compare with Switch Transformer routing.
PaperFlow
Switch routes tokens to a single dense expert; SMoDR routes queries to a sparse set of discrete retrievers[12]. Equivalent capacity, but quantized identities cut dispatch memory ~10×[14].
你 · 14:02
用大白话讲:式 3 到底在做什么?
PaperFlow
这是一个路由损失。对每个查询 q,只有 top-k 集合 𝒯q 里的专家参与计算[3];当这些专家给该查询打高分时,模型获得奖励。关键在于把"路由"和"推理"解耦[5]
你 · 14:06
和 Switch Transformer 的路由对比一下。
PaperFlow
Switch 把令牌路由到单一稠密专家;SMoDR 把查询路由到一小组离散检索器[12]。容量相当,但量化的专家身份把分派张量压缩了约 10 倍[14]
Ask about §4.1…⌘ ⏎
问问 §4.1…⌘ ⏎
— 8 —
— II. Index of Features
— 二 · 功能目录

Six things, done quietly.

六件事,安静地做好。

f. 01
Citation-aware chat
Answers grounded in the passages read. Superscripts jump back.
p. 011
f. 01
引文级对话
回答锚定原文。上标即出处,点击即跳回。
p. 011
f. 02
A 30-second overview
Contributions, keywords, outline — the moment it opens.
p. 024
f. 02
三十秒概览
论文一打开,贡献、关键词、大纲就在那里。
p. 024
f. 03
Footnotes that talk back
Hover a citation; it resolves inline.
p. 038
f. 03
回话的脚注
悬停引文,参考文献当场展开。
p. 038
f. 04
A canvas of cited papers
Your reading list as a graph you can pan.
p. 049
f. 04
一张引文画布
你的阅读图谱,一张可平移的画布。
p. 049
f. 05
A library that remembers
Every paper, highlight, note — searchable; Markdown-exportable.
p. 064
f. 05
记住事情的书库
论文、划线、笔记——可搜,可导出。
p. 064
f. 06
Bring your own model
OpenAI, Anthropic, Gemini, DeepSeek, Ollama. Your keys.
p. 077
f. 06
自带模型
OpenAI、Anthropic、Gemini、DeepSeek、Ollama——你的密钥。
p. 077
— III. The Reading Ritual
— 三 · 阅读仪式

From arxiv.org/abs/… to finished, in four turns.

arxiv.org/abs/…读完,四步。

i.

Pin the walnut icon.

Touches only arXiv and PDF tabs.

把核桃色图标钉在工具栏。

只触碰 arXiv 与 PDF 标签。

ii.

Open any paper.

arXiv, hosted PDF, or local file://.

打开任何一篇论文。

arXiv、托管 PDF,或本地 file://

iii.

Bring a model.

Paste a key. Stored locally.

带上一个模型。

粘贴密钥,仅存本地。

iv.

Read. Ask. Save.

Highlight, chat, search — one ⌘K away.

读,问,留下。

划线、对话、检索——只在 ⌘K 之外。

— IV. Privacy as default
— 四 · 默认即隐私

Your keys.
Your models.
Your papers.

你的密钥。
你的模型。
你的论文

Storage

Local — chrome.storage.local.

存储

本地 — chrome.storage.local

Sync

Optional. End-to-end encrypted.

同步

可选,端到端加密。

Tracking

None. No analytics, no telemetry.

追踪

无。无分析,无遥测。

Source

MIT. Self-host the sync server.

源代码

MIT 开源,可自建同步。

— VI. Marginalia
— 六 · 杂记

Things people asked us in the margin.

那些读者写在页边的问题。

Is it free? +

Free for personal reading. You pay your model provider directly.

免费吗?+

个人阅读永久免费。模型费用直付提供方。

Which models? +

Any OpenAI-compatible endpoint: Claude, Gemini, DeepSeek, Ollama, LM Studio.

哪些模型?+

任何 OpenAI 兼容接口:Claude、Gemini、DeepSeek、Ollama、LM Studio。

Do you see my papers? +

No. Traffic goes browser → provider. Nothing through us.

你们看到我的论文吗?+

看不到。流量从浏览器直达提供方。

Firefox? Safari? +

Chrome & Edge now. Firefox soon. Safari later.

Firefox?Safari?+

现支持 Chrome 与 Edge。Firefox 在做。

— Coda
— 终章

Stop hoarding tabs.
Start finishing papers.

别再囤积标签页。
把论文,一篇一篇读完。

v0.1 · open betav0.1 · 公测 MIT licensedMIT 开源 ⌘K · works offline⌘K · 离线可用