产品设计思考-05
新闻
- 总部位于慕尼黑的 Lilium 是第一家全电动垂直起降 (all-electric vertical take-off and landing,eVTOL) 飞机的开发商,Lilium 设想该飞机可作为未来的空中汽车或空中出租车使用。由于未能筹集到足够的资金,Lilium 10 月份宣布计划为其主要的两家子公司根据德国法律申请破产并申请自我管理程序(self-administration proceedings)。然而 11 月出现了转机,Lilium 与毕马威(KPMG)启动并购流程,可以继续实施首飞和认证。他们预计 2025 年实现公开首飞。
- 两家在线新闻媒体 Raw Story Media,Inc. 和 AlterNet Media,Inc. 声称 OpenAI 在未获授权的情况下使用了他们的网站文章进行 ChatGPT 及其他模型的训练,并且在使用过程中移除了版权管理信息(CMI),根据《数字千年版权法案》(DMCA)第1202(b) 条款对 OpenAI 提起版权侵犯诉讼。近日纽约南区法院根据美国宪法第三条,以“原告未能证明 OpenAI 的行为给他们造成了具体的实际伤害,这一要求是依据美国宪法第三条进行诉讼所必需的”为由驳回了该诉讼。这一裁决标志着在 AI 与版权之间的法律争议中赢得了一场重要的胜利,也为未来类似案件的处理提供了参考。
产品
usememos:一款标签卡片笔记软件,使用方式类似国内的 Flomo,然而两者在使用上稍有区别。usememos 支持 Markdown 语法,这为书写长文章提供了便利,但是由于该软件不提供文件夹结构和目录结构,也不支持 Markdown 实时预览,所以长文章的写作体验很差。标签管理卡片笔记的形式与 Flomo 几乎一样,使用起来没有难度,支持单卡片多标签、标签分级等功能,然而问题出在编辑器,在编辑器中输入标签时,不能立刻给标签高亮显示,仍然显示为纯黑文本,需要保存笔记后才能显示高亮,这点体验稍差。而 Flomo 则在用户输入标签后,无需保存立即给标签文字变色以及底色高亮显示,这个看着就顺心很多。另外,usememos 提供自部署与协作能力,不过协作能力有点鸡肋,其他人只能看和打表情符号,不能评论。
科技
reor:一款 AI 驱动的笔记软件,我把它放在“科技”目录下的原因是,它实现了 AI 笔记的本地化,用户可以在本地下载和运行模型。我在 产品设计思考-02 中提到过致力于实现 AI PC 的 LLMWare,而做到 AI 本地部署的笔记软件还是第一次见。
reor 宣称自己是高熵思考者(high entropy thinkers)的利器,高熵思考者这个名词我第一次见,网上查找信息发现没有专门的名词解释,我只能自己做一个大概理解:指需要迅速处理庞大且混乱的信息,快速找到解决方案和制定决策的人。
对于 LLM 模型的本地化的应用,reor 做出了如下设计:
- 每篇笔记都会被分块并嵌入到内部向量数据库中。
- 相关的笔记会通过向量相似度进行自动连接。
- LLM 驱动的问答功能会自动对用户的语料(指用户的所有笔记)进行 RAG
- 所有内容都可以进行语义搜索(指自然语言大意匹配,无需精确搜索)。
这个软件很耗费资源,仅安装包就将近 1GB,模型的资源占用尤为庞大,我的老电脑不堪重负。reor 没有像 LLMWare 那样做本地适用的小型模型,而是直接使用 llama3.2、qwen2.5 之类的动辄 2-5GB 的重量级模型,老电脑用户几乎与这个软件绝缘。
思考
这周是被数据支配的一周,一方面是预期外的数据太多,老板们要求都找到原因;另一方面有业务方反馈报表有问题,我们排查发现某个同步任务有数据丢失,要讨论怎么给业务方交代。虽然都不是大问题,但是数据上要对齐的小问题不断,非常损耗心力。
为了优化 AI Q&A 的回答速度,我们尝试针对知识点的类型,在匹配度较高的时候直接推送对应的文档或者知识卡。已有文档和知识卡的内容一般比 AI 总结出来的内容更具体,可操作性也更好,如果能够精准返回目标文档的话,效果会比 AI 总结要好很多,目前的问题是模型的性能能否准确识别 QA 关联性。可以等功能上线后观察直接返回的结果及拦截效果再行分析。
另外,我们提高了对模型侧微调的支持能力,允许用户修改部分执行参数,例如 RAG 返回数量、topK、拦截阈值、prompt 等等,用户修改参数后可以对原有问题重新执行一遍 pipeline 以对比微调前后的回答。很难说用户会不会喜欢这个东西,因为微调一般不会对回答结果造成较大的改变,用户很难从中得到正反馈。