AI大模型日报#0416:李飞飞《2024年人工智能指数报告》、Sora加入Adobe、李彦宏聊百度大模型之路

发布于:2024-04-17 ⋅ 阅读:(19) ⋅ 点赞:(0)

​导读: 欢迎阅读《AI大模型日报》,内容基于Python爬虫和LLM自动生成。目前采用“文心一言”生成了每条资讯的摘要。

标题: 刚刚,李飞飞团队发布《2024年人工智能指数报告》:10大趋势,揭示AI大模型的“喜”与“忧”


摘要: 斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2024年人工智能指数报告》,该报告追踪了2023年全球人工智能的发展趋势。这是该机构发布的第7份AI Index研究,也是其迄今为止最全面的报告。报告强调了大型语言模型与机器人或智能体相结合的优势,标志着机器人在现实世界中更有效地工作的重要一步。此外,今年Stanford HAI扩大了报告范围。报告下载地址为https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf
网址: 刚刚,李飞飞团队发布《2024年人工智能指数报告》:10大趋势,揭示AI大模型的“喜”与“忧”|机器人|人工智能技术_网易订阅
 
标题: Sora加入Adobe全家桶,视频改图加戏样样行:PR大更新预告
 


摘要: Adobe将为其视频编辑工具Premiere Pro添加生成式AI功能,包括支持第三方AI视频生成模型如OpenAI的Sora等。用户可直接在视频素材上增减内容,甚至“凭空延长”镜头长度。此前OpenAI推出的Sora一直未发布实际工具,但Adobe新版Premiere Pro的亮相可能预示着新技术的即将到来。这将大大提升视频编辑的效率和创作可能性。
网址: Sora加入Adobe全家桶,视频改图加戏样样行:PR大更新预告 | 机器之心
 
标题: DeepMind升级Transformer,前向通过FLOPs最多可降一半
 


摘要: DeepMind新设计通过引入混合深度大幅提升Transformer效率,实现自适应计算能力,避免不必要的计算浪费。条件式计算技术可在需要时执行计算,降低Transformer的计算预算。Transformer模型目前存在计算资源浪费问题,因为每个token都花费同等计算量,而理想情况应是根据具体问题分配不同计算资源,这也是未来改进的重要方向。
网址: DeepMind升级Transformer,前向通过FLOPs最多可降一半 | 机器之心
 
标题: 李彦宏:踩了无数坑以后,百度知道了大模型要做什么
 


摘要: 摘要: 在百度AI开发者大会上,李彦宏表示自然语言将成为下一代编程语言,使每个人都能成为开发者。百度发布了文心大模型4.0工具版,可通过自然语言交互处理复杂数据和文件,并发布了三大开发工具以降低AI应用开发门槛。李彦宏认为智能体是未来最主流的大模型使用方式,百度已升级了相关技术。
网址: https://www.geekpark.net/news/333781
 
标题: 张鹏对话无问芯穹夏立雪:中国的Scaling Law是场景优势,异构算力解决大模型落地难题
 


摘要: 摘要: Scaling Law被视为大模型进化的关键,但国内大模型公司面临算力等挑战,引发对Scaling Law在中国适用性的质疑。无问芯穹CEO夏立雪提出应用场景的Scaling Law,并推出「MxN」架构以提高大模型性价比和落地能力。在直播对话中,探讨了国内算力难题、大模型落地等问题,并指出CUDA是英伟达的壁垒,推理场景是算力未来的重点。
网址: https://www.geekpark.net/news/333775