GenSpark和Manus这两款智能体AI产品,无论是团队基因还是产品功能,都有很多相似性。
下面这张图娜姐详细对比了两者的异同:
今天娜姐就来详细测试对比一下两者在文献综述和PPT制作方面的效果差异:
1 Manus
1.1 文献综述:
一份高质量的文献综述需要:信息检索的全面性、内容分析的深度性、逻辑结构的系统性,以及引用的准确性。
给定主题撰写文献综述,娜姐之前测评过GenSpark的深度研究,单次综述可以引用近100条参考文献,虽然写作内容有些浅显。
再来看看Manus表现如何:
记得,这里一定要强调:
1附带所有参考文献来源(否则Manus生成的报告文中是没有citation的);
2 最后,请将所有文字和图表合并到一个文档中发送给我(默认状态下,Manus会拆解任务,每个子主题生成一个markdown文档,图片一个,表格一个。所以,你可以要求Manus将所有文档合并成一个,方便查看)。
Manus收到任务后,会开始规划,逐步执行。它的任务是在Manus虚拟机上进行,你可以很直观的看到它浏览的页面和执行的操作,这一点很特别:
这种"模拟人类操作界面"是Manus的一大亮点。你能清楚看到它访问了哪些数据库、使用了什么检索策略、如何筛选文献。
整个过程耗时约20分钟,最后会汇总一个总报告和一个表格:
再来看看内容:
总的来说,内容大而全,但是细节和机制阐述不够具体。
生成的总结性图表有一定参考性:
参考文献部分,按照我们的要求引用了近五年的30篇相关文献。
总体评价:Manus的文献综述适合用于前期调研和快速入门,能够帮你建立对某个领域的整体认知框架。但如果要用于正式的学术发表,还需要大量的人工补充和深化。
1.2 Manus制作PPT
上传了一篇学术论文,请它制作一份供学术会议交流的PPT,最终生成一份11张slides的PPT文件:
主要信息倒是都提取正确了,但是格式惨不忍睹:
从PPT质量来看,Manus的表现确实不尽如人意:
内容层面:
- 信息提取准确:关键的研究目的、方法、结果都提取到了
- 逻辑结构合理:按照学术报告的标准流程组织
- 重点突出:能够识别论文中的核心贡献
视觉层面:
- 模板单调:只有基础的文字排版,缺乏视觉美感
- 图表质量差:原论文中的图表没有很好地适配到PPT格式
这种质量的PPT,距离学术会议的展示标准还有不小差距。需要大量的后期美化和格式调整工作。
2 GenSpark
2.1 文献综述
GenSpark的操作界面,可以显示任务执行流程和访问的网址,跟OpenAI和Gemini的深度研究类似。
最后生成的文献综述正文是带引文链接的,这一点比Manus要好:
但是生成的报告也有大而全,但是深度不够的问题。
我想着是不是框架给的太详细导致的。后来尝试只给主题,让它综述。结果还是一样的。并且参考文献也有只10来条。和它前期的深度研究功能相比,现在像是为了节省token成本偷工减料了。
结果也是只能作为前期的快速概览,信息密度不够。
综合来看,GenSpark的文献综述有以下特点:
优势:
- 引用规范性高:每个引用都能准确对应到原文
- 界面友好度好:操作简单,结果展示清晰
- 处理速度快:平均5分钟左右完成一篇综述
劣势:
- 文献覆盖面有限:相比早期版本有所下降
- 内容深度不足:缺乏对复杂问题的深入探讨
2.2 GenSpark制作PPT
GenSpark的PPT制作流程,是先输出整个PPT的HTML代码,再转换成pptx文件供下载。风格和Claude的流程图风格很像。
整个的视觉效果和信息总结比Manus要好:
可以作为PDF或者pptx文件导出。但是,导出后也存在字体变化和格式变动,显示不准确的问题。要稍作调整。
总结一下,文献综述生成方面,Manus文献引用量比GenSpark多,但GenSpark内容更全面,且生成速度更快。
PPT制作方面,GenSpark更胜一筹。
目前来看,这些智能体工具功能都还不成熟。虽然是号称可以全流程自主规划、执行任务,但最后生成的产品还远达不到80分水准。远不如让AI执行一个单一的翻译、润色、写代码、绘图等任务完成出色。
当然,随着大模型的飞速进化,这些智能体产品的性能也会水涨船高,不断改进。
目前阶段,人还当不了甩手掌柜,让AI在单个任务上帮我们节省时间,而不是寄希望于一次完成多流程的复杂任务,是更切实可行的方案。
---
今天就介绍到这里。
如果觉得有用,欢迎在看、转发和点赞!娜姐继续输出有用的AI辅助科研写作、绘图相关技巧和知识。