2024-07-29
分享到
在大模型技术发展如火如荼的当下,7月25日举办的“2024人工智能与虚拟现实融合创新发展大会”上,多位专家对AI发展面临的问题给予了关注。
AI的发展需要海量数据的支撑,若管理不当很容易产生安全风险。中国工程院院士、中央网信办专家咨询委员会顾问沈昌祥表示,大模型本质上属于深度学习,但在参数的数量上要比深度学习高几个数量级,例如GPT-3的参数规模高达1750亿、GPT-4的参数规模高达1.8万亿,而在ChatGPT和 GPT4 之后又涌现了一大批的模型,包括文心一言、通义千问、悟道2.0等,这些大模型的参数规模动辄高达上千亿。由此,大模型在全面拓展深度学习算法模型能力的同时,也放大了已有的AI安全问题。
去年,马斯克在内的全球一众AI领域重要人士联合警示“应将缓解人工智能导致的灭绝风险,与其它社会规模风险(如大流行病和核战争)等同重视,作为全球优先事项”,不难看出,信息安全是发展人工智能与虚拟现实绕不开的难题。
为保护大模型信息生态的安全,沈昌祥在会上提出了“六不”九游体育防护生态,即“攻击者进不去”、“非授权者重要信息拿不到”、“窃取保密信息看不懂”、“系统和信息改不了”、“系统工作瘫不成”、“攻击行为赖不掉”。
在2024人工智能与虚拟现实融合创新发展大会上,还有多位专家指出,尽管如今已部署了许多大型模型,但它们与之前的期望存在较大差距。猎豹移动董事长兼CE0、猎户星空董事长、中关村数智人工智能产业联盟副理事长傅盛也特别提到,企业对大型模型的准确率要求大约在95%左右,然而当前这些模型的准确率仅达到70%。他建议结合使用其他工具来增强大型模型执行指令的能力,例如,利用Agent通过数据驱动的方法实现决策过程的自动化和智能化。
杂志收录情况:《中国知网》《中国期刊核心期刊(遴选)数据库》《中国学术期刊综合评价数据库(CAJCED)统计源期刊》《中国期刊全文数据库(CJFD)》《中国科协、中国图书馆学会(解读科学发展观推荐书目)》