阿里千问PC端新功能:两组快捷键,把“用嘴干活”变成现实
你有没有过这种时刻:
开会记笔记,手速跟不上嘴速;写工作周报,脑子里有思路但懒得一个字一个字敲;想查个资料,还得先打开浏览器、输入关键词……
阿里千问刚在PC端上线了一个新功能,叫“AI语音输入”。5月7日开放的,免费。
不是普通语音输入,
用过微信语音转文字吧?那个就是把你说的话变成文字,然后你手动改错别字。
千问这个不一样。

它有两种模式:
第一种:按住快捷键说话
系统会自动去掉你说的“嗯、啊、那个”等语气词,纠正口误,还能自动加标点、排版。出来就是一版干净的通顺文字。适合写稿、回消息、记笔记。
第二种:双击快捷键,直接下指令
不用先转文字再复制到AI对话框。你直接对着电脑说“帮我写一份本周工作总结”“把这段英文翻译成中文”“查一下明天天气”,系统自动理解并执行。
最方便的地方在于:不用切到千问的窗口。在任何软件里——Word、浏览器、微信、飞书——按下快捷键,就弹出一个小浮层,说完话,结果直接贴到你当前光标位置。
两组快捷键:
Windows:右Alt
Mac:右Command
都支持自定义。
这玩意儿到底实不实用?
说几个场景你就知道了。
写文档写到一半,想查个数据。
以前:切换到浏览器→打开搜索→输入关键词→复制结果→切回文档。
现在:按住快捷键→说“2025年国内新能源汽车销量”→松开→数字直接出现在文档里。
本质上,它把你从“打字+切换应用”的流程中解放出来,变成“说话→AI处理→结果到位”。
背后靠的是什么?
语音识别加上大模型的理解能力。你说话里的口误、颠倒、重复,模型都能自动修。而且因为它能“听懂”指令,所以不只是转文字,还能执行任务。
不过有一点要提醒:这个功能目前只集成在千问里,用的是阿里自己的模型。如果你想用其他模型(比如Claude帮你润色、GPT帮你做分析、DeepSeek帮你写代码),那就得切换不同的应用或者网页。
这就引出一个需求:能不能有一个地方,让你随时调用不同AI的能力,不用来回切换?
清云API做的就是这件事。它聚合了580多种模型(OpenAI、Claude、Gemini、DeepSeek、等),兼容OpenAI接口协议,不用改代码就能随意切换。价格是官方原价的6-8折,按实际用量付费,用多少花多少。对于经常需要多种AI能力配合工作的用户来说,省去了开一堆会员的麻烦。

说回千问这个语音输入。目前功能比较简单直接,上手没门槛。如果你经常在电脑前工作可以试试。两组快捷键记住就行。
以后AI和人的交互方式,肯定会越来越像“说话就能干活”。
打字这件事,可能真的要慢慢退居二线了。
首页 – 清云API
夜雨聆风