@fmvp742637从豆包手机想象一下未来,未来的应用程序会不会集成MCP供操作系统中的大模型调用? 中发帖

看了下老戴的视频,豆包手机并不是靠截屏读取,而是直接读取GPU渲染出来的画面,从而可以无视系统层面对于截图的限制。操作也不是靠无障碍,而是直接注入。离屏操作的方式是渲染一个虚拟屏幕。 
但是显然,这并不是大模型访问应用最高效的方式,如果每个应用程序都能够把一些本来面向用户的UI接口做成可被MCP调用的接口,那大模型就能用更少的资源解决问题。
不过,我又想到现在我们往往要求新的科技来适配现有设施,而不是改进现有设施配合新的科技。举个智能驾驶的例子,智能驾驶需要花很大精力解决识别锥桶/盲区鬼探头之类的问题,尤其是在大雾大雨等能见度较低的情况下。各家靠雷达/摄像头花大量算力训练各种端到端模型来解决。但是好像没看见改进现有道路基础设施(比如锥桶本身)或者现有机动车的方案。(比如可不可以在锥桶或者现有机动车上安装某种主动式或被动式电子标识,正常行驶的车可以直接扫到前面有锥桶或者盲区有车在倒车)。如...