G2 如何在生成式人工智能时代进行审查审核
已发表: 2023-07-24你不会因为探险家对指南针的热爱而责怪他们。
创新技术让我们难以抑制兴奋。 当某件事的出现对我们的工作方式或与世界的互动方式产生根本性影响时,我们想要拥抱它。
有时,即使我们想认为某些新工具或发明是包治百病的灵丹妙药,但最好还是稍微深入研究一下。 在不了解其中的细微差别和影响的情况下,一头扎进本垒的风险可能比我们想象的要大。
生成人工智能(AI)的时代已经到来。 当我们进入人类历史的新篇章时,如何采用这项新技术的竞赛已经开始。 在本文中,我们将探讨生成式 AI 如何应用于 B2B 软件评论以及 G2 对此的立场。
极速创新
DALL-E 2 和 ChatGPT 等生成式人工智能工具在 2022 年末首次成为头条新闻。进入 2023 年仅几个月,人工智能技术的采用和兴趣就出现了爆炸式增长。 随着越来越多的软件供应商探索如何集成人工智能来创建新的解决方案,各行业的专业人士都将其视为企业的新领域。
一些人认为,到 2030 年,生成式人工智能有可能使全球 GDP 增长 7%。另一方面,许多人预见到这项技术可能会如何影响全球劳动力市场。 其影响程度还有待观察,但专家表示,它可能很快就会改变我们的工作方式。
尽管生成式人工智能最出名的是生成文本和图像输出,但它也有潜力做其他事情,例如编写代码和帮助数据分析。 在 ChatGPT 的一次迭代中,用户成功使用该工具在 60 秒内创建了可玩的 Pong 版本。
无论哪个行业,生成式人工智能都具有深远的影响。 但由于这项技术的进步速度如此之快,它也带来了独特的挑战和被不良行为者滥用的可能性。 在将这项创新技术与 G2 与审核审核相关的政策和流程联系起来之前,建立有关生成式 AI 的背景非常重要。
令人兴奋的技术在早期阶段面临的挑战
人工智能生成的内容将在未来几年彻底改变内容创作,并可能扰乱现有的创意产业。 由于这项技术充满了潜力,因此也很可能被广泛滥用。
不可否认,生成式人工智能令人印象深刻。 但是,在潜水之前请考虑以下挑战和风险。
- 道德和版权问题:许多人工智能生成内容的反对者指出了围绕它的道德问题。 由于这些模型是在现有内容上进行训练的,因此引用来源和给予信任变得复杂。 从使用人工智能的大学生到 写学期论文 大规模“借用”代码,抄袭和侵犯版权的风险是非常现实的。
- 内容质量: 一般来说,生成式人工智能工具很引人注目。 但正如任何作家或艺术家都会告诉你的那样, 它们不会很快取代人类的工作。 人工智能的未来可能是技术和人类操作员的结合,但目前还不要指望用这些工具取代您的创意团队。
- 错误信息和不准确之处: 与内容质量类似,生成式人工智能几乎无法阻止 不准确、错误或误导性的输出。 发布不准确的内容可能会损害品牌声誉,因此对人工智能生成的内容进行事实核查保持警惕至关重要。
- 习得性偏见: 人工智能生成内容的批评者提出的另一个方面是他们的模型使用人类内容。 争论的焦点是,由于人类存在隐性和显性的偏见,这些人工智能模型 学习这些模式和行为。
我们对生成式人工智能和软件评论的立场
G2 拥有超过 200 万条真实评论,是全球最大的 B2B 软件市场。 达到这一点需要我们团队的大量努力和奉献。 但如果不尊重公正、真实评论的力量,这是不可能的。
这一切的核心是,我们知道人类信任他人的经历,这就是为什么我们优先考虑评论的质量而不是数量。 买家开始信任 G2 研究和评估软件,因为我们竭尽全力保证真实性,例如:
- 验证 G2 上每个用户的身份。
- 利用超过 43 个数据点来评估真实性。
- 使用严格的准则审查每一条评论。
G2 采用公正的方式来审核评论。 我们的目标是保证每一次评论都是评论者对产品体验的诚实意见。 我们还积极监控表明欺诈行为的模式。 当发生此类情况时,我们会进行彻底的审核,取消相关审查,并实施必要的强制措施。
由于我们致力于提供公正的买家反馈,使用生成式 AI 撰写大部分内容的评论不符合G2 的社区准则。
虽然我们仍然坚持评论应该来自真实的人,但一个例外是使用人工智能写作助手。 只要该工具仅旨在提高可读性、语法和拼写,我们欢迎审阅者使用这些工具。
还值得注意的是,G2 正在仔细考虑将人工智能工具纳入审稿提交体验的好处。 与写作助理如何帮助审稿人类似,我们正在不断改进整个提交流程。
G2 审核审核如何检测 AI 生成的内容
我们的团队对所有新提交的审查都有严格的审查和审核流程。 由于我们每天都会收集大量评论,因此我们必须将一流的技术与训练有素、眼光敏锐的团队成员周全地结合起来。
4K+
AI 生成的评论 G2 每月拒绝,占每月评论提交总数的 5-8%。
G2 使用领先的第三方工具和服务来检测评论提交中人工智能生成的内容。 虽然我们不会透露所使用的具体技术,但请放心,我们使用了市场上一些最受好评的软件。
G2 可以使用的工具是企业级内容检测解决方案,可以扫描并标记人工智能生成的内容。 标记此内容后,我们的内部定性审核团队会验证这些实例。
善意与坏人
重要的是要承认我们不鼓励并拒绝使用生成式人工智能的提交内容。 由于我们对真实评论力量的立场,我们的目标是在我们的流程检测到人工智能生成的内容时拒绝评论,无论其意图是合法还是欺诈。
除了使用第三方工具之外,我们还利用内部机器学习模型,从每个版主的决定中学习,以检测欺诈性评论。 该机器学习模型还使用其他数据(例如用户的评论历史记录、社交媒体存在、提交模式、浏览器操作、IP 地址、位置信息等)来检测欺诈活动。
虽然人工智能内容检测和我们的机器学习模型有助于大规模标记虚假评论,但我们还利用审核员的专业知识来审核需要更大量评估的评论。 我们的团队擅长识别通常与欺诈活动相关的模式并创建有效的欺诈预防实践。
借助人工智能为更美好的未来奠定基础
由于生成式人工智能技术的爆炸式增长,未来几年世界很可能会发生很大的变化。 无数的内容创作者和品牌将必须适应和掌握这些工具才能保持竞争力。
但尽管这项技术可以带来很多好处,但它可能带来的潜在危害也是如此。 G2 拥抱并认识到生成式人工智能所带来的巨大优势。 然而,我们仍然认为,只有来自真人的第一手体验的评论才值得信赖。
因为我们相信真实评论的力量,所以您始终可以信赖 G2 来捍卫客户的声音。
借助人工智能的力量找到合适的软件。 使用 G2 的人工智能聊天机器人 Monty 探索研究的新方法。