1、AIGC与生成式AI

1. AIGC 与生成式 AI

  • AIGC(AI Generated Content)
    • 指由人工智能生成的文字、图像、音频、视频等各种形式的原创内容。
    • 示例:ChatGPT 生成的文本、GitHub Copilot 生成的代码、Midjourney 生成的图片等。
  • 生成式 AI(Generative AI)
    • 国外更常用的术语,与 AIGC 本质上含义相近。
    • 通过深度学习模型(如扩散模型、GAN、Transformer 等)自动生成新的内容。
    • 由于在国内 “AIGC” 一词更流行,部分场景下 AIGC 也被用来指代生成式 AI。

结论:“生成式 AI” 生成的内容就是 “AIGC”,而 “AIGC” 也通常泛指 “生成式 AI” 及其生成的成果。


2. AI、机器学习与深度学习的层级关系

  1. 人工智能(AI)

    • 计算机科学的一个分支,始于 1956 年,核心目标是让计算机模拟或超越人类智能来解决问题。
  2. 机器学习(Machine Learning)

    • AI 的一个子集,强调让计算机通过数据与算法自行学习模式、做出决策,而非显式硬编码逻辑。
    • 包含 监督学习无监督学习强化学习 等多个分支:
      • 监督学习:有标签的数据,常用于分类或回归。
      • 无监督学习:无标签的数据,常用于聚类、降维等。
      • 强化学习:在环境中试错学习,通过奖励机制不断优化策略。
  3. 深度学习(Deep Learning)

    • 机器学习的一个重要方法,使用多层人工神经网络模拟人脑的层次化认知。
    • 可以应用于监督、无监督和强化学习,不是三者的子集,而是一种实现技术。
    • 擅长处理大规模数据并提取高维度特征。

3. 生成式 AI:核心原理与应用

  • 生成式 AI

    • 利用神经网络(如 Transformer、GAN、扩散模型、VAE 等),在学习到的模式基础上创造新的内容。
    • 应用示例:
      • 文本生成(如 GPT 系列)
      • 图像生成(如 DALL·E、Stable Diffusion、Midjourney)
      • 音频视频生成(如 MusicLM 等)
  • AIGC 与生成式 AI 的关键点

    • 学习:先用大量数据学习语言、图像等底层模式。
    • 生成:通过模型内部对模式的理解和重组来生成新内容。
    • 原创性:内容并不是简单地拷贝已有素材,而是综合已有数据的特征做新的组合。

4. 大语言模型(LLM)与生成式 AI

  1. LLM(Large Language Model)

    • 通过大规模文本数据进行训练,参数量动辄数十亿乃至万亿级,能学习并理解语言的多维信息。
    • 常见应用:文本生成、对话问答、情感分析、信息抽取等。
  2. 并非所有生成式 AI 都是 LLM

    • 图像生成模型(扩散模型、GAN 等)并不处理文本,依旧属于生成式 AI。
  3. 并非所有 LLM 都用于文本生成

    • 有些 LLM 架构偏重语言理解或问答,而不专长于连贯长文本的生成。
    • BERT(Bidirectional Encoder Representations from Transformers)就是典型的 编码器 模型,更多用于语言理解、检索和分类,而非长文本生成,因此它在某些文献中不被视作典型的 “生成式 AI”。

纠正点:BERT 常被称为 大型预训练语言模型,确实能在部分场景下生成文本(如填充被 Mask 的词),但与 GPT 这类自回归生成模型的“自由度”不同,不擅长长文生成。


5. 技术要点与专业拓展

  1. Transformer 架构

    • 2017 年提出的 Attention Is All You Need 论文,颠覆了深度学习对序列任务的处理方式。
    • 编码器-解码器(Encoder-Decoder)框架支持灵活扩展:
      • 仅编码器(BERT、RoBERTa)
      • 仅解码器(GPT 系列)
      • 编码器-解码器(T5、BART)
  2. 自注意力机制(Self-Attention)

    • 让模型在处理某个词(或像素块)时,同时关注整个序列中的所有元素并计算关联度,极大提升对上下文和全局信息的理解。
  3. 多头注意力(Multi-Head Attention)

    • 并行关注不同层次或不同类型的特征,为模型提供更丰富的表达能力。
  4. 大模型与预训练

    • 预训练 + 微调 成为主流范式:先在海量数据上学习通用特征,然后根据具体任务进行少量数据微调。
  5. 应用场景

    • 生成式对话系统(ChatGPT)
    • 编程辅助(GitHub Copilot)
    • 内容创作(文章、脚本、广告文案)
    • 其他模态生成(图像、音视频)
  6. 局限与挑战

    • 幻觉(Hallucination):生成的内容可能并非真实或可靠。
    • 数据与隐私:需要大量数据支撑,存在潜在的数据安全或隐私风险。
    • 伦理与监管:AI 生成虚假信息、抄袭争议、版权归属等问题需要持续讨论与规范。

6. 总结

  • AIGC/生成式 AI:利用深度学习模型从已知数据中学习并生成新内容,包括文字、图像、音视频等多种形式。
  • 与传统 AI 关系:生成式 AI 仍属于机器学习/深度学习的一个应用分支,与监督、无监督、强化学习等方法相辅相成。
  • 大语言模型(LLM):专注文本处理的深度学习模型,规模大、能力强,但并不都适合长文本生成;BERT 更偏理解,GPT 更偏生成。
  • 未来趋势:随着模型规模、训练数据和算法的改进,AIGC/生成式 AI 在创意、交互、艺术等领域有更广阔的发展前景,如何应对其中的技术、伦理与监管挑战也将成为社会关注的重点。
    [up主专用,视频内嵌代码贴在这]