基础大模型+垂直大模型+边缘模型(开源+商业)
基础大模型将是人工智能时代的技术底座,将与垂直产业模型及边缘模型一起形成新的产业生态,其生态规模将比PC时代大100倍,比移动互联网时代大10倍以上。在这个生态中,开源模型与商业模型并存,为开发者提供灵活的选择。
Token-based(统一表征)+ Scaling Law(规模定律)
大模型最核心的要素是Token-based(统一表征)和Scaling Law(规模定律)。Token-based方法通过将文本和其他类型的数据统一编码为Token,使得模型能够处理不同形式的输入。Scaling Law则揭示了模型规模与性能之间的关系,表明随着模型参数和数据规模的增加,模型的表现会显著提升。
需要新算法体系(世界模型,DNA记忆,Agent, RL,概率系统+决定系统,100X效率提升),Transformer/Diffusion/AR 在5年内会被颠覆
与人脑相比,现有算法存在效率低、能耗高的问题,需要开发新的算法体系,包括世界模型、DNA记忆、智能体(Agent)、强化学习(RL)、概率系统和决定系统,实现100倍的效率提升。未来5年内会在AI技术架构上有大的突破,当前主流的AI技术框架Transformer/Diffusion/AR,可能在未来五年内被新技术所颠覆。
大模型 => 通用人工智能(AGI)
15-20年内实现通用人工智能(AGI),并通过“新图灵测试”。
数据智能:无人驾驶Corner Case数据不足,大模型生成式AI可结合真实数据生成高质量Corner Case数据。
长尾问题:生成式AI可填补Corner Case中场景仿真、模拟不足的问题,解决感知领域的长尾问题。
常识推理:大模型的推理能力可以帮助自动驾驶系统理解并应对道路上的突发情况,从而提高自动驾驶的能力上限。
多模态(视觉+激光雷达等)、端到端、云端大模型、车端实时精确模型
自动驾驶技术将整合多模态传感器数据(如视觉、激光雷达等),采用端到端训练,实现云端大模型与车端实时精确模型的协同工作。
多模态融合:相较于人类而言,机器具备多模态感知优势,通过融合视觉、激光雷达和其他传感器数据,自动驾驶系统能够更加全面地感知周围环境。
端到端:无人驾驶算法形成了大量为某一任务特质化的碎片化小模型,未来可统一为端到端大模型。
云端与车端协同:云端大模型提供通用性泛化能力,车端模型提供实时精确响应和本地优化部署,云端与车端协同可确保驾驶决策兼具泛化性、及时性和准确性。
单车智能为主,车-路-云协同,安全冗余+智能交通
未来的自动驾驶技术将以单车智能为主,车-路-云协同工作,确保安全冗余,辅助智能交通。
自动驾驶车辆需具备单车智能能力:每辆自动驾驶汽车都必须具备独立的智能驾驶能力
车-路-云一体化带来安全冗余,提升驾驶安全:通过车-路-云一体化,为自动驾驶提供多重冗余,提升驾驶安全。
车-路-云一体化提升交通效率,辅助智能交通:车-路-云一体化决策控制优化交通流量、提升交通效率。
2025年是无人驾驶的“ChatGPT时刻”,2030年无人驾驶成为主流(10%新车具备L4能力)
2025年,在一个具备复杂交通环境的大城市,无人驾驶将达到人类老司机水平,实现无人驾驶的“ChatGPT时刻”。
2030年,无人驾驶汽车将成为市场主流,预计有10%的新车具备L4级别的自动驾驶能力。
沿大模型能力在飞速发展,巨大的能力也带来潜在的风险。这迫使我们思考人工智能技术对社会、文化、伦理等方面的影响和责任。我们要重新审视人类与机器的关系,以及人类自身的本质和价值。对于人工智能技术的不确定性和复杂性,我们必须做好充分准备和应对。我们应充分重视人工智能可能带来的风险,将伦理问题和价值观置于技术之上。特别是当自主智能、具身智能和生物智能进入大规模部署时,大模型须有更强的可控性、更好的可解释性、和更有效的治理。
建立分级体系
为大模型做好分级分类,对前沿大模型制定场景约束和评估体系。
场景约束:根据不同的应用场景,设立明确的约束条件,确保大模型在特定环境中的有效性和安全性。例如,在医疗、自动驾驶等高风险场景中,制定严格的安全标准和合规要求。
评估体系:建立科学、全面的评估体系,对大模型的性能、安全性、可靠性等进行评估。包括模型的准确性、响应速度、资源消耗、隐私保护等多方面指标,确保其在实际应用中的可行性、有效性和合规性。
ID 实体映射
进行ID实体映射,追溯责任主体,确保信息真实可靠。
AI内容标识:像标识广告一样,对人工智能生产的数字人等智能体进行标识,有助于用户区分AI生成的内容,维护信息的真实性和可靠性。
物理+生物从属智能体:明确机器人作为从属体,必须映射到主体,这个主体可以是人或公司等法定实体,如果机器人出现问题,就可以追溯主体责任。
10%+ 投资
加大对大模型风险研究的投入。企业、国家基金会、科研机构等需要将对大模型投资的10%以上用于AI风险研究,有效应对其带来的潜在风险,发展和治理融合、技术与政策融合、产学研融合。
政策研究:研究制定符合伦理和法律标准的AI监管政策,促进各国在AI治理方面的国际合作,避免因政策差异引发的技术和伦理问题。
技术研究:在系统设计之初就考虑AI风险因素,研究具备可解释性的AI模型,提高系统透明度,确保AI系统的安全性。
设立红线和边界
为了避免AI人工智能系统的不安全开发、部署或使用带来的灾难性风险。应设立人工智能发展的红线和边界:
不可自主复制或改进:任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身。这包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能系统。
不可权力寻求:任何人工智能系统都不能采取不当地增加其权力和影响力的行动。
国际沟通合作和协调机制
AI技术的发展具有全球性,需要加强国际间的沟通合作和协调机制。
国际合作:推动国际间的科技合作,共同应对AI技术带来的挑战。建立国际联合实验室和科研项目,促进跨国界的学术交流和合作。
标准化:推动AI治理的国际标准化,制定统一的技术规范和标准,促进不同国家和地区间的技术互通和兼容。
协调机制:建立国际协调机制,特别是在数据隐私、安全等领域,加强国际间的协调和合作,共同维护全球的科技安全和稳定。
AIR快讯| AIR携手字节跳动成立可扩展大模型智能技术联合研究中心
近日,清华大学智能产业研究院(AIR)-字节跳动 “可扩展大模型智能技术联合研究中心 (SIA Lab)” 在AIR举行成立仪式。SIA Lab 聚焦预训练大语言模型技术,致力于发展更为通用与可扩展的智能系统,提升智能技术在互联网以及更多场景、更复杂任务中表现能力。中国工程院院士、清华大学讲席教授、AIR 院长张亚勤,清华大学科研院院长刘奕群,清华大学惠妍讲席教授、AIR首席科学家马维英,清华大学万国数据教授、AIR执行院长刘...
2024/10/14
Yoshua Bengio、姚期智、张亚勤:AI安全是“全球公共产品”,全球合作刻不容缓
*本文转载自AI国际安全论坛公众号AI安全国际对话发起人,从左到右依次是Stuart Russell,姚期智,Yoshua Bengio,张亚勤九月五日至八日,中国工程院院士,清华大学讲席教授、智能产业研究院(AIR)院长张亚勤,联合图灵奖得主Yoshua Bengio、姚期智教授,加州大学伯克利分校教授Stuart Russell等多位全球顶尖的人工智能(AI)科学家汇聚威尼斯,出席了由AI安全国际论坛(Safe AI Forum)和博古睿研究院共同举办的第三届国际AI安...
2024/09/18
AIR 快讯|波士顿动力创始人 Marc Raibert 教授来AIR讲座
2024 年8月28日,波士顿动力公司创始人兼首席执行官、美国工程院院士 Marc Raibert 教授访问清华大学智能产业研究院(AIR)。AIR院长张亚勤院士(线上),执行院长刘洋教授,国强教授、首席研究员刘云新和刘菁菁教授,AIR智能机器人方向首席专家陈亦伦教授、助理研究员詹仙园教授出席接待,并共同参观交流。张亚勤院士对 Raibert 教授的来访表示热烈欢迎。他谈到,Raibert 教授是人工智能与机器人领域的杰出代表,其领导的波士...
2024/08/28