Privacy-protected Retrieval-Augmented Generation for Knowledge Graph Question Answering
这篇文章大抵是詹密写的(不排除是串子或者詹黑,甚至这个可能性还大点?哈哈哈),证据见下图: 研究背景调侃归调侃,即使是常务副Goat,也不能占用太大篇幅。 这篇 AAAI2026 论文讨论的是一个很现实、但之前在 KGQA 和 RAG 里没有被认真拆开处理的问题:如果知识图谱本身是私有的,里面包含个人隐私、企业内部信息,甚至是一些只能在本地保存的敏感实体关系,那么把这些三元组原样喂给大模型,本身就意味着泄露风险。传统 RAG 的基本假设是“把检索到的知识尽可能完整地提供给模型”,但在私有知识图谱上,这个假设恰恰是最危险的部分。论文开头用一个很直观的例子说明了这一点:如果问题是“Bronny 住在哪里”,传统 RAG 在检索阶段就可能把 (Bronny, lives in, L.A.) 这样的三元组暴露给 LLM。由于 LLM 往往是黑盒,而且还可能通过第三方 API...
Human-in-the-loop Learning for Adaptive Robot Manipulation using Large Language Models and Behavior Trees
26年年初的OpenClaw,像是一颗核弹轰炸了AI圈。网上随之出现各种上千元的上门安装服务,甚至后来热度稍微下去之后(太烧token,普通人玩不起,以及存在安全问题),出现了500元的上门卸载服务,商业头脑这块我还是太欠缺了,怪不得人家能赚钱…… OpenClaw和具身本体的结合也是目前一大研究热点。目前一个可行的想法,也是我目前正在研究的是,Agent针对特定任务进行规划,规划使用行为树表示,传给具身本体,按照行为树流程执行对应的操作。 什么是行为树?行为树(Behavior...
Autobots, assemble!
暑假开摆了许久,最近有了一些学习的动力,终于终于终于刷完了Andrej的课,学习到了当下大语言模型最主流的架构——Transformer。这篇博客主要则是记录我在学习Transformer模型以及通读“Attention is all you need”论文后的一些个人思考和总结。你应该发现了标题是“Autobots, assemble”,如果你和我一样是变形金刚的狂热粉丝,你应该能get到这个小彩蛋。 自注意力机制...
深度学习基础
不知道多久之前就说要写一些关于深度学习的笔记,结果被各种事情导致一拖再拖(当然也有自己懒的因素)。直到今天看完Andrej Karpathy的第三节课,我深知若再不记录,我只会学一点忘一点…… Pytorch InternalsPytorch Internals我这里主要记录关于pytorch中的核心数据结构——张量,其他内容大家感兴趣可以详细阅读上面讲解pytorch内部原理的博客。 张量是pytorch的核心数据结构,他由数据和元数据构成。元数据包括张量的大小,数据类型,张量所依赖的设备(CPU or...
开站首文!
Welcome to my blog!在一顿折腾之后,我的个人博客也成功建立了。建立个人博客原因有许多,一是想记录自己技术栈不断丰富的历程,给我记笔记一些动力。二是分享记录自己的个人生活。三是跟风,很多优秀的程序员都有自己的个人博客,我也就跟着搭建了一个哈哈哈哈哈哈! 像我上面所说的,博客主要是用来记录生活和学习笔记。学习笔记是阶段性理解,可能有误大家辨证看待。生活方面则比较随性,更多的是闲暇时的思考和球评(其他的私人生活肯定都在朋友圈啦!)。 网站的UI会不断修改,功能也会日趋完善,敬请期待!
