LLM的未来:从云端走向端设备

生成式AI技术近年来取得了巨大进步,以ChatGPT为代表的大语言模型(LLM)展现出强大的语言理解和生成能力,为各行各业带来了新的可能性。

对于一般公司而言,自行训练LLM显然不太现实,接入各大模型厂商的API成为目前唯一可行的方案。然而,这种方式存在着一些问题,例如:

为了解决这些问题,我认为LLM的未来发展方向是走向端设备,直接集成在硬件设备中,例如:

将LLM集成在端设备中,可以带来以下优势:

当然,将LLM集成在硬件设备中也面临一些挑战,例如:

我相信,随着技术的进步,这些挑战将会逐步得到解决。LLM将越来越多地集成到硬件设备中,为我们的生活和工作带来更多便利和智能。

比如我的场景是这样的:夏天我回家,喊了一句“屋子里好热”,我们的AI中控会问:“主人,需要我为您打开空调吗?”,我说“好”。AI中控根据当前室内温度对空调发出了启动空调指令,并调整到合适的温度后,问“主人,现在的温度合适吗?”。这才是AI应该做到的事情,它应该理解人类,并帮助人类执行,而不是像现在的一些所谓智能家居,采用指令式执行,在LLM进入终端,AI Agent才是进入我们生活的终极模式。