一、 核心概念与基础理论
1. 人工智能:一门研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的新技术科学。它是计算机科学的一个分支。 2. 机器学习:人工智能的核心,是让计算机系统能够从数据中“学习”并改进,而无需进行明确编程的科学。 3. 深度学习:机器学习的一个分支,基于人工神经网络,特别是具有许多层(“深度”)的神经网络,能够自动学习数据中的复杂模式。 4. 算法:为解决特定问题而设计的一系列清晰、有限的指令或步骤。在AI中,算法是模型学习和预测的基础。 5. 模型:在机器学习中,模型是算法在训练数据上学习后产生的输出,它能够对新的、未见过的数据进行预测或决策。 6. 数据:AI的“燃料”。可以是结构化的(如表格数据)、非结构化的(如文本、图像、音频)或半结构化的。 7. 训练:使用数据集来调整模型参数,使其能够学习数据中规律的过程。 8. 推理:使用训练好的模型对新数据进行预测或生成结果的过程。 9. 泛化能力:模型在未见过的新数据上表现良好的能力。泛化能力强是衡量模型好坏的关键指标。 10. 过拟合:模型在训练数据上表现极好,但在测试数据或新数据上表现很差的现象。通常是因为模型过于复杂,学习了数据中的噪声。 11. 欠拟合:模型在训练数据和测试数据上表现都较差的现象。通常是因为模型过于简单,未能学习到数据中的基本规律。 12. 特征:数据中用于模型训练的独立可测量的属性或变量。例如,在预测房价时,面积、房间数、位置都是特征。 13. 特征工程:选择、转换和创建特征的过程,以提高模型性能。是传统机器学习中的关键步骤。 14. 标签:在监督学习中,数据样本对应的正确答案或结果。例如,在垃圾邮件分类中,邮件的“垃圾”或“非垃圾”就是标签。 15. 损失函数:一个函数,用于衡量模型预测值与真实标签之间的差距。训练的目标是最小化损失函数的值。 16. 梯度下降:一种常用的优化算法,通过沿着损失函数的梯度(最陡峭下降方向)迭代更新模型参数,以最小化损失。 17. 学习率:在梯度下降等优化算法中,控制每次迭代参数更新步长的超参数。学习率过小会导致收敛慢,过大会导致震荡甚至无法收敛。 18. 超参数:在训练开始前设置的、用于控制模型学习过程的参数,如学习率、树的深度等。它们不是通过数据学习得到的。 19. 参数:模型在训练过程中学习到的内部变量,如神经网络中的权重和偏置。 20. 收敛:在训练过程中,当模型的损失函数值趋于稳定,不再显著下降时,称模型已经收敛。
二、 主要学习范式
21. 监督学习:使用带有标签的数据进行训练,让模型学习输入到输出的映射关系。常见任务有分类和回归。 22. 无监督学习:使用没有标签的数据进行训练,让模型自行发现数据中的内在结构或模式。常见任务有聚类和降维。 23. 半监督学习:结合少量有标签数据和大量无标签数据进行训练,以利用两者的优势。 24. 强化学习:一种通过与环境交互、根据获得的奖励或惩罚来学习最优行为策略的学习范式。常用于游戏、机器人控制等领域。 25. 自监督学习:一种无监督学习的特殊形式,它从数据本身自动生成监督信号(标签),例如通过遮盖部分文本来预测被遮盖的内容。 26. 迁移学习:将一个在源任务上训练好的模型(或其知识)应用到新的、相关的目标任务上,以加速新任务的学习并提高性能。 27. 小样本学习:让模型在只有极少量标注样本的情况下也能完成学习任务的能力。 28. 零样本学习:让模型能够识别它从未在训练中见过的类别的能力。
三、 核心技术与模型架构
29. 人工神经网络:模仿生物神经网络结构和功能的数学模型或计算模型,是深度学习的基础。 30. 感知机:最简单的神经网络模型,用于二元分类。 31. 前馈神经网络:信息从输入层单向流向输出层的神经网络,是最基础的神经网络结构。 32. 卷积神经网络:专为处理网格状数据(如图像)而设计的神经网络,通过卷积层有效提取空间特征。 33. 循环神经网络:专为处理序列数据(如文本、语音)而设计的神经网络,具有“记忆”能力,能捕捉序列中的时间依赖关系。 34. 长短期记忆网络:一种特殊的RNN,通过引入门控机制解决了标准RNN难以学习长期依赖关系的问题。 35. 门控循环单元:LSTM的一个简化变体,同样用于解决长期依赖问题,但结构更简单,计算效率更高。 36. Transformer:一种完全基于自注意力机制的神经网络架构,彻底改变了自然语言处理领域,并逐渐扩展到其他领域。其并行计算能力远超RNN。 37. 自注意力机制:Transformer的核心,允许模型在处理序列中的某个元素时,能够“关注”到序列中的所有其他元素,并计算它们的重要性权重。 38. 编码器-解码器架构:一种常见的模型架构,包含一个编码器(用于理解输入)和一个解码器(用于生成输出),广泛用于机器翻译、文本摘要等任务。 39. 生成对抗网络:由一个生成器和一个判别器组成的模型框架。两者相互博弈,共同进化,最终生成器能产生以假乱真的数据(如图像、音频)。 40. 扩散模型:一类新兴的生成模型,通过一个“加噪-去噪”的过程来生成高质量、高多样性的数据,在图像生成领域表现尤为出色。 41. 大型语言模型:通常指在海量文本数据上训练的、包含数千亿甚至上万亿参数的Transformer模型,具有强大的自然语言理解和生成能力。 42. 多模态模型:能够同时处理和理解多种类型数据(如文本、图像、音频、视频)的AI模型。 43. 向量数据库:专门用于存储、管理和查询高维向量(嵌入向量)的数据库,是语义搜索、推荐系统和RAG应用的关键组件。 44. 嵌入:将离散的、高维的数据(如单词、类别)映射到低维、连续的向量空间的技术。这些向量能捕捉数据之间的语义关系。
四、 自然语言处理
45. 自然语言处理:人工智能的一个分支,研究如何让计算机理解、解释和生成人类语言。 46. 自然语言理解:NLP的子领域,专注于让机器理解文本或语音的含义。 47. 自然语言生成:NLP的子领域,专注于让机器以自然、流畅的方式生成人类可读的文本或语音。 48. 词向量:将词语表示为实数向量的技术,如Word2Vec、GloVe。相似的词在向量空间中的距离也相近。 49. 分词:将连续的文本序列切分成有意义的词语单元的过程,是中文NLP的基础步骤。 50. 命名实体识别:识别文本中具有特定意义的实体,如人名、地名、组织机构名、日期等。 51. 情感分析:判断文本所表达的情感倾向(如积极、消极、中性)。 52. 文本分类:将文本自动划分到一个或多个预定义的类别中。 53. 机器翻译:利用计算机自动将一种自然语言翻译成另一种自然语言。 54. 问答系统:能够根据用户提出的问题,自动给出精准答案的系统。 55. 文本摘要:自动生成一段简短文本,概括长篇文章的核心内容。 56. 大语言模型提示工程:设计和优化输入给LLM的提示词,以引导模型产生更符合期望、更高质量的输出的技术。 57. 检索增强生成:一种将信息检索与生成式AI相结合的技术。在生成回答前,先从外部知识库中检索相关事实,然后基于检索到的信息进行生成,以提高回答的准确性和时效性。 58. 上下文学习:LLM的一种能力,即在不更新模型参数的情况下,仅通过在输入提示中提供少量示例,就能学会执行新任务。
五、 计算机视觉
59. 计算机视觉:使计算机能够从图像或视频中获取信息、理解内容并做出决策的科学。 60. 图像分类:判断一张图像属于哪个预定义的类别。 61. 目标检测:在图像中定位并识别出多个特定物体,通常用边界框标出。 62. 图像分割:将图像划分为多个不同的、有意义的区域或像素组。 63. 语义分割:为图像中的每个像素分配一个类别标签(如天空、道路、行人)。 64. 实例分割:在语义分割的基础上,进一步区分同一类别的不同实例(例如,区分图像中的每一个人)。 65. 图像生成:根据文本描述或其他条件,生成全新的、逼真的图像。 66. 光学字符识别:将图像中的印刷或手写文字转换为机器编码的文本。 67. 人脸识别:识别和验证图像或视频中人脸身份的技术。 68. 姿态估计:在图像或视频中检测并定位人体关键点(如关节、头部)的技术。
六、 开发、部署与伦理
69. 数据集:用于训练、验证和测试模型的数据集合。 70. 训练集:用于调整模型参数的数据子集。 71. 验证集:用于在训练过程中调整超参数和评估模型性能的数据子集。 72. 测试集:在模型训练和调优完成后,用于最终评估模型泛化能力的、从未使用过的数据子集。 73. 数据标注:为原始数据(如图像、文本)添加标签的过程,是监督学习的基础。 74. 数据增强:通过对现有数据进行各种变换(如旋转、裁剪、加噪)来创建新的训练样本,以增加数据多样性、防止过拟合。 75. 框架:用于简化AI模型开发和训练的软件库,如TensorFlow, PyTorch。 76. 模型即服务:将训练好的AI模型作为云服务提供,用户可以通过API调用模型功能,无需自行部署和维护。 77. API (应用程序编程接口):一组定义和协议,用于构建和集成应用程序软件。在AI中,API是调用模型服务的主要方式。 78. 云计算:通过互联网提供计算资源(如服务器、存储、数据库、AI服务)。 79. 边缘计算:在靠近数据源(如摄像头、手机)的“边缘”设备上进行数据处理和计算,以减少延迟、保护隐私。 80. MLOps (机器学习运维):一套将DevOps原则应用于机器学习系统的实践,旨在自动化和标准化ML模型的开发、部署、监控和维护全生命周期。 81. AIOps (智能运维):将AI技术应用于IT运维,以自动化和优化运维任务,如异常检测、根因分析、事件关联等。 82. 可解释性AI (XAI):研究和开发技术,使AI模型的决策过程对人类来说是透明和可理解的。 83. AI对齐:确保AI系统的目标和行为与人类的价值观、意图和利益保持一致的研究领域。 84. AI安全:研究如何防御AI系统受到恶意攻击(如对抗性攻击、数据投毒),并确保其行为可靠、可控。 85. AI伦理:研究与AI相关的道德问题和原则,如偏见与公平、隐私、责任、透明度等。 86. 算法偏见:AI模型因训练数据中的偏见或设计缺陷,而对特定人群或群体产生不公平或歧视性结果的现象。 87. 幻觉:指生成式AI模型(尤其是LLM)捏造事实、生成看似合理但与事实不符的信息的现象。 88. 红队测试:一种模拟攻击者的测试方法,主动寻找AI系统中的漏洞、偏见和安全风险,以提高其鲁棒性和安全性。 89. 基础模型:指在大量、广泛的数据上进行预训练,能够适应多种下游任务的超大规模模型(如GPT系列、BERT、Llama系列)。 90. 提示词:输入给生成式AI模型的文本指令,用于引导模型生成特定的内容或执行特定的任务。
七、 前沿与综合应用
91. 生成式AI:能够根据学习到的数据模式,创造出全新内容(文本、图像、音乐、代码等)的AI。 92. AIGC (AI Generated Content):即“AI生成内容”,是生成式AI应用的直接产物。 93. 自主智能体:能够感知环境、制定决策并自主执行行动以完成特定目标的AI系统。它通常具备记忆、规划和使用工具的能力。 94. 知识图谱:用图的形式表示实体及其之间关系的知识库,为AI提供结构化的世界知识,增强推理能力。 95. 机器人流程自动化:使用软件机器人来自动执行重复性、基于规则的业务流程。结合AI后,可以处理更复杂的非结构化任务。 96. 数字孪生:为物理实体(如飞机发动机、工厂、城市)创建的虚拟数字模型,通过AI进行实时模拟、预测和优化。 97. 联邦学习:一种分布式机器学习方法,允许多个参与方在不共享原始数据的情况下,协同训练一个全局模型,以保护数据隐私。 98. 神经符号AI:结合神经网络(感知、模式识别)和符号AI(逻辑推理、知识表示)的优点,旨在构建更强大、更可解释的AI系统。 99. 量子计算:利用量子力学原理进行计算的新兴技术。理论上,它能在某些特定问题上(如分子模拟、特定优化问题)提供远超传统计算机的算力,可能为AI带来颠覆性变革。 100. 奇点:一个理论上的时间点,届时人工智能的智能将超越人类智能,并引发不可预见的技术和社会变革。这是一个充满争议和哲学思辨的概念。
来源 | 蕴灵