赞
踩
文章作者:白鹿第一帅,作者主页:https://blog.csdn.net/qq_22695001,未经授权,严禁转载,侵权必究!
生成式 AI(Generative AI) 是指计算机通过机器学习从现有数据中学习一个对象(物品、产品或任务)的要素,进而生成一个全新的、原创的、真实的、与原来内容相似的对象。作为重要的战略技术,在 2025 年 10+% 的数据将由 AI 创造。
根据 Gartner《2021 年预测:人工智能对人类和社会的影响》 中预测:
对于生成式 AI 的发展趋势预测,具体如下图所示:
在不含 AI 生成代码的情况下,AI 生成内容的业务场景和分类已经囊括众多的技术领域,AIGC 技术场景具体如下图所示:
AI 创作能力在未来短时间内的进步速度,也将取决于各行各业收集和训练行业优质数据的工作。
开发人员使用 AI 生成宠物小精灵,在初期使用“写实”数据集后发现运行效果不理想,重新使用 26 张新数据集训练 20 分钟,我们根据二者之间的对比,可以看到 AI 学习和生成效果是非常棒的,具体如下图所示:
AI 目前最大的问题不是“不够聪明”,而是“书读得太少"。 在 AI 新范式下创作,要考虑什么样的内容更利于 AI 学习和 AI 生成使用。
如果我们将艺术家关键词对生成图像的贡献视为艺术家本/的贡献,我们从原理上就可以为艺术家的创意价值定价了。
今天的 AI 从底层改变了游戏规则,接下来会看到以下变化:
根据英特尔(Intel)创始人之一戈登·摩尔(Gordon Moore)提出的 “摩尔定律”:当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔 18 个月翻两倍以上。
而现在由于高效数据、高效算力、高效模型、高效知识需求的增长,摩尔定律原来中的 2 倍将增长至现在的 10 倍,具体如下图所示:
在 “The blessings of scale”中,根据趋势我们可以明确得知:同等条件下,随着模型参数量的增加,更大的模型会带来更好的结果,且目前的趋势并未饱和,故目前阶段大模型的投资依然会增加以获得更高的效益,具体如下图所示:
多模态融合打破边界,模型越来越大,模型走向行业,模型走向融合,具体如下表所示:
大模型趋势 | 内容 |
---|---|
模型越来越大 | 探索极限,目前到 5000 亿仍然保持线性增长。越来越接近人脑神经元连接数,甚至超过。 例:OpenAl GPT-3(175B) 、谷歌 PaLM(540B) |
模型走向行业 | 在通用预训练大校型(L0)的基础上,在行业数据上更新训练后,适用于行业特征拍取的模型族(L1)。 例:煤矿模型,电力大模型,药物分子大模型等。商汤:INTFRN 系统(初学者-专家-通才);百度:行业大模型。 |
模型走向融合 | 未来 2~3 年,视觉和语言大模型统一到多模态大模型,架构上也实现基本统一。各种校态大模型进行充分融合。 例:文本 + 视觉,语音 + 文本,文本 + 视频等 OpenAI DALL*E/E2;谷歌 Imagen;微软 GLIP 等。 |
生成式 AI 技术的发展更趋向于:可控、高精度;更快、更好、更便宜。
可控和高精度重建成为技术突破口,带来了超乎想象的结果,得益于 Diffusion model、语言大模型、跨模特大模型、Nerf 等技术的突破,具体如下图所示:
生成式 AI,可控生成于机器而言,是不同语义的重组,于人而言,就是创意!在绘画领域,AIGC 是将绘画的三要素(构图、纹理、着色)进行重组从而产生创意。但是他并不能真的产生创意的基本元素,举例具体如下图所示:
图像生成,反事实是创意,但是对于语言生成,反事实却是灾难,可谓“恐怖如斯”,具体如下图所示:
文章作者:白鹿第一帅,作者主页:https://blog.csdn.net/qq_22695001,未经授权,严禁转载,侵权必究!
我是白鹿,一个不懈奋斗的程序猿。望本文能对你有所裨益,欢迎大家的一键三连!若有其他问题、建议或者补充可以留言在文章下方,感谢大家的支持!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。