消费者对AI大模型认知和态度分别是什么?

消费者对AI大模型认知和态度分别是什么?

最佳答案 匿名用户编辑于2025/01/14 15:37

用户使用 AI 大模型最主要的场景是学习和工作,其次是生活场景,AI 大模型的实用性 得到用户的广泛认可。

1.用户对算法和AI大模型的基本认知

第一,AI 大模型的使用尚未普及,消费者对其运作机制的认识也相对匮乏。在收集的 8030 份 问卷中,有超半数的受访者完全没有使用过 AI 大模型。针对使用过 AI 大模型的受访者,进一步调 研了他们对大模型的工作流程或工作原理的了解程度。结果显示,仅有 10.19% 左右的消费者非常 了解,部分了解的人数占 57.21%,不太了解和完全不了解的人数占 30% 左右。这些数据表明,AI 大模型尚处于发展阶段,尚未被广大消费者广泛接受和使用。尽管人们对 AI 大模型已有一定的认识, 但整体上,这种认知仍较为浅显和有限。

第二,对于算法和 AI 大模型的拒绝使用权以及可解释性,消费者诉求强烈。超 80% 的受访者 认为用户应该享有主动拒绝使用算法和 AI 大模型的权利,只有 11% 的受访者认可无权拒绝使用。 关于企业是否需要向用户解释算法和 AI 大模型,39.3% 的受访者认为需要详尽解释,44.7% 的受 访者认为需要简单解释,而认为不在乎和不需要解释的受访者比例只有 16%。

第三,用户使用 AI 大模型最主要的场景是学习和工作,其次是生活场景,AI 大模型的实用性 得到用户的广泛认可。调查结果显示,在那些已经使用过 AI 大模型的受访者中,分别有 57.42%、 40.95% 和 35.32% 的受访者在学习、工作和生活场景中应用了 AI 大模型。这一数据表明,AI 大 模型在这些领域具有较高的接受度和实用性。然而,在娱乐领域,使用 AI 大模型的消费者比例不 足 20%,这可能暗示着 AI 大模型在娱乐行业的应用潜力尚未充分展现,或者该领域的用户对 AI 大 模型的接受度相对较低。此外,高达 95% 的受访者认为 AI 大模型对他们的工作和生活起到了积极 作用,其中超过半数的人认为 AI 大模型的作用极为显著,甚至达到了不可或缺的程度。这些数据 说明 AI 大模型在提升效率和便利性方面的实用价值已得到普遍认可。

2.用户对使用AI大模型的态度

第一,用户对 AI 大模型持有普遍积极的第一印象。在调查受访者对 AI 大模型的看法时,诸如 高效、便捷、创新和进步等正面词汇的使用频率均超过了半数。相比之下,如武器化、失控、威胁、 欺诈和失业等负面词汇的使用频率大多维持在 10% 左右。这些数据表明,大多数受访者对 AI 技术 持有非常积极的态度。

第二,人们期待与 AI 大模型能够提供更深层次的互动,不仅能够充当工具,还能够进一步成 为伙伴关系。35.5% 的受访者认为 AI 大模型对于人来说应该是工具,这表明这部分人更倾向于将 AI 视为提高效率和解决问题的手段。这种看法可能源于对 AI 技术的实际应用和功能的认识。超六 成的受访者认为,AI 大模型不仅仅是一个简单的工具,它们在人们心中还扮演着伙伴的角色。这反 映了人们期待AI大模型在提供服务时更有“人情味”,希望它们能够像人类伙伴一样提供帮助和支持。

第三,多数公众认为 AI 大模型的普及策略应根据不同领域的实际情况有序推进,只有少数认 为应当普及或严格限制。67.6% 的受访者认为在不同的领域,对 AI 大模型的应用保持不同的态度。 这意味着人们认为 AI 技术在某些领域可能具有更大的应用价值和发展潜力,而在其他领域则可能 存在风险或不适用的情形,所以应该区别对待;16.23% 的受访者认为应该严格限制 AI 大模型的使 用范围,对 AI 技术的潜在风险和负面影响保持非常谨慎的态度;12.58% 的受访者认为应该普及 AI 大模型,他们可能认为 AI 技术具有广泛的应用前景,能带来积极的社会和经济效益,因此支持 其普及。

3.用户对AI大模型风险的认知

第一,用户认为 AI 大模型存在风险,但大多数人认为风险可控。90% 左右的受访者都认为 AI 大模型是存在风险的。其中,66.2% 的受访者对 AI 大模型持谨慎乐观态度,认为虽然存在风险, 但这些风险是可以被控制和管理的;22.08% 的受访者认为 AI 大模型存在较大的风险,这表明有一 部分人对 AI 的发展持担忧态度;仅有 4.26% 的受访者对 AI 大模型的发展保持非常抵触的态度, 认为应该立即停止使用。有 4.48% 的受访者认为 AI 大模型完全没有风险,这可能表明这部分人对 AI 技术非常信任,或者对 AI 的了解不够深入。这组数据提示我们,在推进 AI 技术发展的同时,也 需要关注风险管理和公众的意见,才能让 AI 大模型未来的发展更加健康持久。

第二,公众最关注 AI 大模型使用中的隐私保护和就业替代问题。公众在使用 AI 大模型的过程 中面临多方面的挑战,人们对 AI 大模型的风险认知呈现多元化的特点,隐私保护和信息安全是人 们最关注的问题。人们在使用 AI 大模型的过程中面临诸多问题,包括数据隐私和安全、结果的准 确性和可靠性、技术易用性、信息质量和成本问题等,人们对 AI 大模型应用过程中风险的关注也 涵盖了从就业、隐私、歧视到政府监管等多个方面。超半数的受访者遇到了数据隐私和安全问题, 60.09% 的受访者认为 AI 可能会不受控制地收集和处理个人信息。这说明数据保护和隐私安全是一 个非常重要的议题,需要企业和开发者投入更多资源来确保用户数据的安全。其他问题也反映了公 众不仅对于 AI 的自主性和潜在的控制力有所担忧,而且也担心 AI 技术的发展可能会放大现实层面 的问题。

第三,公众认为目前 AI 大模型最大的问题是隐私保护不足和产品性能达不到个人需求。在使 用 AI 大模型时,超过一半的受访者遇到过数据隐私和安全问题,40% 的受访者表示遇到过生成结 果不令人满意的问题。此外,也有超过四分之一的受访者表示还遇到了系统成本过高、技术复杂难 以学习、偏见歧视和错误判断以及错误和无用信息等问题。这表明,目前的 AI 大模型在性能方面 仍然存在较多问题,需要持续改进。

4.针对AI大模型风险的用户策略

第一,在个人权益保护方面,多数用户在事前做好自我预防措施、事后向相关机构积极反馈。 当自己的权益受到损害时,65.02% 的受访者会向监管机构举报,35.45% 的受访者会向企业反馈, 这显示了用户对法律途径和企业的信任和依赖,希望通过正式渠道解决问题。除了寻求外部渠道的 帮助,受访者自身也采取积极的应对措施,比如注重信息和隐私安全、加强对大模型的学习等。也 有一部分受访者在遇到权益损害问题时,会选择不再使用该产品,表明了用户对于 AI 潜在风险的 担忧。

第二,公众普遍认为,为了降低 AI 大模型的风险,必须构建多元主体开放合作的治理机制, 期待在未来实现技术创新和法律法规的协同完善。在监管层面,61.83% 的受访者认为 AI 大模型未 来的发展需要完善相关法律法规;在企业层面,受访者认为企业不仅要重视自身的监管和审查,技 术创新、商业场景的突破也可能解决潜在的问题;在社会层面,59.2% 的受访者认为应该构建开放、 合作、协商的多元治理机制。这些措施共同构成了一个综合性的风险管理框架,旨在确保 AI 技术 的安全与可持续发展。

第三,公众对 AI 大模型安全的相关法规及自身的合法权益了解有限。仅有 17.77% 的受访者 自己阅读过 AI 大模型安全相关的法律法规,对自身享有的权利有一定的认知,48.12% 的受访者仅 听说过部分内容,17.07% 的受访者只听说过名字,有 17.04% 的受访者甚至完全不了解我国在 AI 大模型安全领域的相关立法。

参考报告

2024算法与AI大模型的用户认知调研报告.pdf

2024算法与AI大模型的用户认知调研报告。消费者对于AI大模型和算法的认知水平是影响人工智能行业发展的重要因素,认知程度和使用态度的变化在一定程度影响着人工智能技术的商业化应用速度,从而对我国数字经济发展、数字中国建设产生影响。2024年8月,我们在全国范围内发放了面向消费者的调查问卷,试图了解目前我国消费者关于AI大模型以及算法的认知情况。课题组通过支付宝渠道向用户发放调查问卷,一共回收了8030份有效问卷。基于这些数据,我们得到了如下的结论。

查看详情
相关报告
我来回答