1、2025年高等学校人工智能通识教育研讨会-人工智能2.0时代的人才培养和通识教育课程肖睿2025年7月12日 青岛 北大青鸟人工智能研究院 北大计算机学院 北大教育学院学习科学实验室第2页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第2页人工智能2.0时代的人才培养和通识教育课程1.人工智能的前世今生2.大模型的特点和局限3.大模型的发展观察01人工智能2.0时代1.人才需求2.人工智能通识课02人才需求和通识教育课第3页01.人工智能的前世今生02.大模型的特点和局
2、限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第3页人工智能0.0:古代(1956-2006,从规则到学习)人工智能:让机器具备人类智能,让机器具备非人类智能(超人类智能)传统(知识+规则):专家系统(知识库+推理机)现代(数据+学习):机器学习(模型、目标、策略),数据模型(IID,用数学模型模拟世界)常规统计学习方法:逻辑回归,决策森林,支持向量机,马尔科夫链,小数据,人工特征,部分可解释,缺乏通用性和跨模态人工神经网络:与人脑最大的共同点是名字(原理、机制和架构并不一样),用神经网络表达数学模型1、传统神经网
3、络:霍普菲尔德网络,玻尔兹曼机,.2、深度神经网络:深度学习(Hinton,2006)大数据,特征表示,基本不可解释,具备通用性和跨模态第4页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第4页人工智能1.0:近代(2006-2020,深度学习)2006:传统架构:DBN,CNN,RNN,ResNet,Inception,RWKV,ImageNet(超过人眼)AlphaGO(超过人类棋手)AlphaFold(超过人类科学家)2017:Transformer架构:注意力机
4、制(Attention)预训练模型架构:编码器(BERT):embedding,Ernie1.0,混合网络:T5、GLM(早期)解码器(GPT):生成式人工智能(AIGC)深度学习:深度神经网络 预训练模型架构:并行矩阵计算(GPU)堆叠架构,容易扩展,大力出奇迹第5页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第5页人工智能2.0:现代(2020-,大模型)大模型(预训练大模型):大(数据多、参数多、算力多),模型(语言、视觉、多模态)GPT架构:解码器(GPT),
5、生成式人工智能(AIGC),生成-理解-决策(RL)Transformer:大语言模型(LLM,大模型),多模态模型ChatGPT(4.1、4o、o1、o3、o4)、Claude;Grok、Gemini;Llama、DeepSeek、Step、Qwen;Kimi、MiniMax;GLM、火山(豆包)、元宝、百度Transformer+Diffusion:视觉模型图像:Stable Diffusion、Mid-Journey、DALL.E等视频:Sora、可灵、即梦、Vidu、海螺等 通用模型 vs 垂直模型(行业模型)传媒、编码 教育、医疗、金融等第6页01.人工智能的前世今生02.大模型的特
6、点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第6页人工智能2.0时代的人才培养和通识教育课程1.人工智能的前世今生2.大模型的特点和局限3.大模型的发展观察01人工智能2.0时代1.人才需求2.人工智能通识课02人才需求和通识教育课第7页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第7页Generative(生成式)Pre-trained(预训练)Transformer(一种深度神