赞
踩
虽然业界大佬对Mamba有点争议,但是直觉而言,Mamba会取代 Transformer 成为LLM的基础模型算法。
1.1 处理的序列更长
1.2 比Transformer 更快
1.3 可解释性、可理解性、可控性、可调试性比 Transformer 更强
论文网址:
https://arxiv.org/pdf/2312.00752.pdf
https://github.com/mamba-org/mamba
mamba 应用于 CV:
https://arxiv.org/abs/2401.09417
https://github.com/kyegomez/VisionMamba
https://arxiv.org/abs/2401.04722
https://github.com/bowang-lab/U-Mamba
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。