哈萨比斯谈人工智能的转变,超越了工业时代
哈萨比斯谈人工智能的转变,超越了工业时代Google DeepMind 联合创始人兼首席执行官 Demis Hassabis 在 2026 年世界经济论坛期间,于达沃斯彭博之家与彭博社的 Emily Chang 讨论了人工智能未来的发展,包括基础模型的进展、现实应用和负责任的 AI 开发。 1. 目录 访谈背景 人物背景介绍 对话实录 2. 访谈背景 [!tips]本次访谈发生在 2026 年世界经济论坛达沃斯会议期间,正值 AI 技术快速演进的关键时期。DeepMind 的 Gemini 系列模型展现出强大的竞争力,而关于 AGI(通用人工智能)的实现时间表、AI 对就业市场的影响、以及全球 AI 监管等话题成为业界关注的焦点。 3. 人物背景介绍3.1. 核心对话人物Demis Hassabis(戴米斯·哈萨比斯):Google DeepMind 创始人兼 CEO,2024 年诺贝尔化学奖得主。他是通用人工智能(AGI)领域的领军人物,主导了从 AlphaGo 到 Gemini 的一系列技术跨越,目前负责谷歌全球 AI 的技术研发与战略。 Francine Lacqua(...
花了半天时间,将元素周期表搞成了一个"可教学"的小工具
花了半天时间,将元素周期表搞成了一个”可教学”的小工具 昨天看到一个作者使用最新的kimi2.5做了一个元素周期表,我觉得很酷,所以我进行了复刻。 公众号文章:https://mp.weixin.qq.com/s/A7VY2fwcnDs2a4Pt2wIeCA然后在原来的基础上,通过Gemini在github上找到了元素的权威数据源,对本地元素周期表的数据进行了整体性的更新。又通过Nist补充了光谱的相关数据。把Deepseek的接口文档给到了它,让他接入了大模型。成品在这里: 欢迎大家使用。如果大家要源码,请私信我。 我就在想啊。个性化的前端(AI实时生成),加上统一的后端接口服务,这事儿离我们是越来越近了。前端在随意定制,后端也能配合着前端的要求灵活调整。你看,以千问、蚂蚁的灵光为代表的这些产品,其实都在往同一个方向走:从以应用为中心(App-centric)向以智能体为中心(Agent-centric)的范式转移。原来我们总说应用就是流量,但未来,智能体才是流量。再往深了看,其实终端才是最终的流量。原来的 APP,可能就回归本质,变成了一个个接口,或者说单纯的工具。在智能...
遇事不决问AI的含金量:看我如何一句话把Python脚本打包成EXE
给业务人员(比如家里那位)写Python脚本,最头疼的往往不是代码本身,而是交付。 你让人家装Python、配pip、安依赖包,这事儿基本就黄了。最好的交付方式,永远是给对方一个双击就能用的 .exe 文件。 但是,我完全不知道行不行的通,行得通的话,应该怎么做。 遇事不决,可问AI。 于是,我就问AI能不能把python环境,python包统一打包成一个exe应用,直接点击就能使用。 果然可以。 然后我就开始使用trae(字节跳动的AI写代码的软件),来帮我打包。 命令很简单: 使用PyInstaller将当前目录下的python脚本打包为直接点击即可使用,无需配置各种环境的exe应用 ok,一次成功。 既然流程跑通了,这事儿我也不会只做一次,我就寻思得把这次成功的“过程”固化下来,变成可复用的资产。 所以我进一步搞了一个 Skill(技能)。你可以理解为我给AI写了一份“标准作业程序(SOP)”。 只要有具体的操作步骤,就可以搞成skill。 继续使用trae创建: 使用skill-creater,将 `https://github.com/pyinstaller/p...
进阶教程:给AI装上"逻辑大脑",打造金融级稳定的多轮对话Agent(Dify实战)
之前,我们讨论过一次怎么样使用dify来构建多轮对话。保姆级教程:手把手教你用Dify实现完美多轮对话(附Chatflow和提示词)这个名字取得还可以,哈哈。但是实际生产使用会存在一些问题,评论区也有说到。 问题一:多轮对话时, 有些代词在回答的答案中, 只将的用户的问题当作上下文, 有时拼写不出完整的问题. 问题二:query改写节点不能开记忆,把之前对话合并成文本放进user prompt,再把温度降低,增加额外规则限制。会好一点。 问题三:用户输入和前文不相干,比如问完保险问其他话题(闲聊),这种情况如何分开做query改写防止污染?还想问下这样改写耗时会不会很久?小模型效果好吗? 这些老师提到的问题其实都是同一个,如何确保问题改写节点,准确理解用户的问题,不要改写错误。此外还有: 多轮对话时,如果A任务没有成,但是词槽或者说参数收集了一半,用户问多轮任务B,接这问C,这样大概率会造成信息丢失。 FAQ/转人工等相关场景没有处理。 如何实现长期记忆。 这些问题,我们依次来尝试解决一下,下面的整体思路,是结合了bert时代的状态机管理(或者说...
我只是想留住一个投资人的思考,结果学会了如何让 AI 替我干脏活
我非常喜欢一位投资人的投资风格和分享的投资理念,老粉如果注意过的话,我之前其实提到过一次。最近他不在微博说话了,因为被迫要收取投顾费,所以他转到了且慢基金社区的同路人小组去发言。 我就想着记录下他的投资理念,方便未来哪天,大佬身退了,我也能学个5成的水平。 在开始正文之前,我想要警告各位: 本文不需要太高的技术水平,如果有兴趣,应该可以在几个小时到一天内复现。 我们不会的,AI会的,让他教我们。 使用国内版本的Trae,可以完成。 另外,本文不构成任何投资建议。 https://www.trae.cn/ 我不会的,AI会所以我就问Gemini: 这里为什么会问Obsidian呢,是因为我最近在将我自己所有的知识体系向这里转移。 很明显,看来我需要写一个网络爬虫才能实现我的诉求了。我真正意识到的问题不是“我不会写代码”,而是“我之前问错了问题”。 我已经自己写过爬取静态网页,就是请求一次,所有内容都展示的网页。 但是很明显,且慢的网页不是的,他是动态的,因为有很多内容都需要点击查看全文、查看更多,甚至会跳转到一个新的网页。 所以,我紧接着问了Gemini一个问题: ...
我画了十几张图,终于把GPT识字这件事,从头到尾讲透了
很多文章在讲 tokenizer 的时候,往往从「词」「子词」直接开始,但如果你真的想理解 GPT 这类模型是怎么”看懂文字”的,我们可能要从头了解。需要强调的是,本文将要拆解的底层原理,不仅是GPT的魔法,同样也是驱动千问、豆包、DeepSeek、Kimi等所有顶尖大模型的共通基石。 这篇文章,我想完整记录: 文本是如何一步一步,从”电信号”,变成模型输入的一串整数 ID,又如何在模型输出后,被还原成人类能读懂的文字。 为什么不能只用字节?——从0-256开始的BPE之路在任何语言模型、任何 tokenizer 出现之前,有一个不可绕过的事实: 计算机并不认识”字符”,只认识电压的高低。 这些电压状态,在逻辑上被抽象为 0 和 1(bit)。 但需要强调的是: 语言模型并不会直接处理 bit 级别的数据。 因为 bit 太底层、太长,而且不同编码方式会导致完全不同的 bit 序列。 真正进入 tokenizer 之前,所有文本都会先经过UTF-8 编码: 例如,我爱中国 china在 UTF-8 编码下,在计算机中存储运算的时候,其实是以一串字节序列进行的(字节...
最高效的学习其实是“不学习”?Gemini 3.0 揭示了AI时代的“拿来主义”
最近大家看Gemini3.0可能了解了很多它在前端代码生成方面的能力。但忽略了它的最强的一个应用场景:就是把它当做任何一个软件的高级专家去使用。这个用法能将我们学习新工具(如影刀、Dify、Hexo)的时间从几天压缩到几分钟,跳过枯燥的学习过程,直接拿结果。当然,如果这个软件满足以下条件任意之一会更好(因为Gemini 3.0强大的上下文窗口能力): 在网上有很多教程 官方文档写的非常好 软件开源 下面我们以影刀RPA为例,简单的给大家演示一下过程。 操作过程先将我们的需求简单描述一下,让Gemini 3.0帮我们优化下提示词。因为我本身对影刀有一些简单的了解,知道它很多工具都是基于python处理的,也知道他对python有非常好的支持,所以我下面的初版提示词提到了python脚本。但是如果大家没用过,其实它也会给一个完全是影刀RPA的指令的完成方式,但是会相对会需要你多沟通几次。你可以这样问,还有没有其他操作起来更加简单地方案呢? 我现在有一个业务需求,业务人员每天都会受到一封固定邮件,附件内容也是固定的是一个excel,业务人员收到以后,需要将附件下载,然后解压缩...
Dify知识库图文混排到底应该怎么做,两种主流方案,一次讲清!
如果你想在使用dify知识库的实现下面的图文混排效果,那你非常有必要读一下这篇文章。 我发现,目前实现这样的图文混排效果应该是有两种方案: 使用图床或者直接将word文件导入知识库。 大家用知识库多的话,或者大模型多的话,可能都知道大模型其实非常擅长理解markdown文件,图床就是markdown中的图像在网络上存储的位置。 而word导入知识库以后,word中的图片会被dify的知识库解析,然后存储到dify所在的服务器。 上面的这两种方案,其实本质上的原理,都是使用的dify的前端是支持markdown渲染的。因此,markdown的图片渲染也是支持的。 下面实验的dify版本是1.9.2,win11环境,docker启动。 markdown图床使用markdown图床的方式,实现知识库答案的图文混排。 前几天,我们怕了E大很多的文章,这里我们就以E大的文章为例。 如果大家看了之前的文章的话: 从被 Trae 气到崩溃,到用 Gemini 一次跑通,终于爬下了孟岩和E大的全部理财干货 可能看到了我爬取得markdown文档图片是在本地电脑上存储的,在markdown中的...
从被 Trae 气到崩溃,到用 Gemini 一次跑通,终于爬下了孟岩和E大的全部理财干货
一直以来我都非常的喜欢孟岩和E大,所以特想把他们在网上的发言都收集起来,以便于自己学习。还想着后续也做一个知识库,随时随地学习他们的理财理念。 但是我之前一直目标瞄在了他们的微博上,但是我这个技术水平,爬取微博,每次最多1000多条微博,就GG了。 后来,突然想,其实孟岩最新的有知有行上面的理财教程和E大合集本身就是精华啊,我为什么不收集一下。 所以我就打开了有知有行的官网: https://youzhiyouxing.cn/materials 在这里,必须感慨下,孟岩实在是太好了,他其实允许所有人读,免登录,直接阅读,后来在写爬虫的过程中,还发现他实际上是一个静态网站。 孟岩太酷了。 爬虫已经开源了: https://github.com/Wangshixiong/youzhiyouxing 欢迎大家使用,但是请大家一定一定注意频率,避免对服务器造成压力,在此感谢孟岩老师。 现在主要是记录下爬虫的开发过程。 最终的成果展示: 起源其实我从网上找到了别人整理的有知有行中E大的发言,但是他是一个pdf文件,而且非常的没有条理,没有目录,没有标题,因为我后续是计划做知识...
在Dify工作流里,我为什么“剥夺”了大模型调用工具的能力?
在生产环境用 Dify,我们最头疼的就是大模型的不确定性。 让 Agent 节点自己调用工具,结果总会有点飘。 今天分享一个能让工作流更稳定、更可控的小技巧: 就是我们可以将MCP中的工具作为工具节点直接插入dify的工作流中。 不知道大家有没有注意到我上一篇文章的一个使用方式: 这里我直接将腾讯的Edgeone-Pages当做一个工具节点了。大家可以看到它是一个工具,这个实际上是我从dify的插件市场下载的一个工具插件,最主要是这玩意儿必须要申请APIkey.而且它输出的text不是url,还需要我从json中提取,所以我加了一个模板转换节点。 虽然他的apikey申请起来并不是特别费劲。 但是大家如果之前在其他地方用过腾讯这个网页部署的mcp服务的话,应该是知道,他是不需要key的。 所以,比如我们可以直接登录modelscope(魔塔社区),开通一下这个服务。 魔塔社区EdgeOne Pages · MCP 然后配置到你的dify里面: 接下来,我们就可以直接再工作流里面把MCP中的工具,直接当做工具引用了。 大家看下效果: 当然,这只是非常简短的一个案例。 ...









