本文要点:
1.63% 的人担心使用生成式人工智能时侵犯版权问题。
2.41% 的人担心这些工具存在固有偏见。
3.83% 的人对需要跟上的工具数量感到不知所措,92% 的人不相信科技公司能够进行自我监管。
随着越来越多的机构在工作中使用生成式人工智能,人们对这些工具的信任程度产生了担忧。
Human Driven AI 是一项针对代理机构和营销人员的人工智能辅导和培训服务,本月对1,100名美国营销人员(包括 内部和代理团队)进行了调查,询问他们最常用的人工智能工具、这些技术即将面临的挑战、监管和当前培训以及他们组织中的教育。公司规模各不相同:42% 的受访者来自拥有101-2,000名员工的公司,30% 来自拥有2,000名以上员工的公司,28% 来自拥有21至100名员工的组织。
根据调查,63% 的人担心使用生成式人工智能时侵犯版权问题,而41% 的人担心这些工具存在固有偏见。另外,83% 的人对需要跟上的工具数量感到困惑,92% 的人不相信科技公司能够进行自我监管。
随着人工智能工具的使用不断增长,机构还面临监管和道德问题。一些公司在指导客户了解人工智能的影响时采取谨慎的态度,他们相信人类在内容开发过程中仍然是至关重要的一部分。
另外,也有许多机构希望能够获得相关的专业发展,并希望他们的雇主提供人工智能教育。然而,目前仍然存在着使用人工智能不正确或不道德的风险,因此有必要制定行业指南来规范人工智能的使用。
可见,机构对于生成式人工智能的信任程度存在着一定的担忧,需要在使用这些工具时谨慎对待,并加强相关的教育和培训。
相关标签: 调查 63 的人担心使用生成式AI导致侵版问题
评论列表 (条)