Google SEO:人工智能内容会对我们的网站有所帮助吗?

新的 AI 内容工具层出不穷。这些工具可以帮助您撰写社交帖子或整篇博文,回答任何问题,甚至创建全新形象! 当您只有一点时间或需要更多灵感时,这非常有用。 但最大的问题是,人工智能工具真的在帮助我们吗?我们应该使用它们来创建我们的内容吗?这篇博文将讨论 AI 内容以及为什么我们应该注意我们如何使用它。

新的人工智能内容工具不断涌现。这些工具可以帮助您撰写社交帖子或整个博客帖子,回答任何问题,甚至创建全新的图像!当您时间紧迫或需要更多灵感时,这非常有用。但最大的问题是,人工智能工具真的能帮助我们吗?我们应该使用它们来创建我们的内容吗?这篇博文讨论了什么是人工智能以及为什么我们应该谨慎使用它。

谷歌SEO:AI内容对我们网站是否有帮助? 第1张

AI 生成的内容正在快速增长

AI 或人工智能,是指执行通常需要人类智能的任务的系统,例如感知、学习、推理、解决问题和决策。如今,各种形状和大小的人工智能工具呈爆炸式增长。人工智能驱动的内容生成器的广泛采用使得快速、大规模生成内容比以往任何时候都更加容易。只需点击几下,任何人都可以创建一篇不成熟的通用文章,他们需要对其进行编辑以匹配其业务基调并切中要点。

使用这些闪亮的新工具很容易陷入兴奋之中并生成大量内容。然而,在使用这些人工智能时,有些事情我们不能也不应该忽视。使用人工智能工具创建内容所创造的内容与众不同,您可能不会感到惊讶。首先,这对你的搜索引擎优化不利。它还导致了一个影响我们所有人的更大问题。内容往往并不多样化和全面。它是由接受有偏见内容训练的人工智能创建的。而这些内容往往是同一类型的人写的。让我们更深入地研究一下,看看我们能做什么!

使用人工智能工具会产生回声室

人工智能生成内容的主要问题之一是缺乏原创性和真实性。虽然算法可以模仿现有内容的风格和基调,但它们无法取代真人的创造力和原创性。人工智能生成的内容通常缺乏细微差别、深度和原创性,这可能会损害品牌的可信度和声誉。此外,使用人工智能生成的内容可能会延续刻板印象、偏见和排他性做法,因为算法往往会复制现有的模式和偏好。

随着人工智能内容工具使内容创建变得更加容易,现在比以往任何时候都更容易创建与其他人相同的内容。如果每个人都使用相同的人工智能来创建内容,那么就没有人在创建新内容。实际上,我们将创建一个回声室,不会有新的想法或想法出现。这导致了一种狭隘且不包容的世界观。François Chollet 发布了一条精彩的推文,表达了他对人工智能的看法:

未来主义的 Maggie Harrison 写了一篇有趣的文章,介绍 ChatGPT 本质上是一台用于人类解释的自主机器。只是这种远非包容性的世界观在很多方面危害社会。它没有考虑到我们世界上人员和观点的巨大多样性。它也不支持过去经常被忽视和边缘化的群体。

AI 训练集存在偏见

由 Google Bard、Microsoft Bing Assistant 和 OpenAI ChatGPT 等支持的大型语言模型 (LLM) 是根据当今互联网的内容进行训练的。虽然大多数人愿意相信互联网是多元化和包容性的,但它也有一些非常值得怀疑的地方。我们应该努力建设一个比今天更加包容的世界。使用互联网上的公共论坛来训练你的人工智能可能不是最好的主意。近年来,这导致人工智能变得种族主义和偏见。

一些示例

当今使用互联网来训练人工智能,存在一些包容性问题。也就是说,人工智能本身会变得种族主义、性别歧视或体能歧视,因为它们被训练去做种族主义、性别歧视或体能歧视的事情。让我们看一些例子。

1。亚马逊的AI招聘失败了

以亚马逊的招聘AI为例。他们开发了这个工具作为招聘的“圣杯”,以帮助他们找到合适的候选人。亚马逊使用了数十年的男性简历来训练其人工智能。当然,这是整个科技行业的反映,但这也意味着该工具已经变得性别歧视。他们可能无意创建一个具有性别歧视的人工智能,但由于输入其中的数据偏向于更多男性员工,她认为自己做了正确的事情。如果他们训练的数据有偏差,那么人工智能将永远有偏差。

2。图像的创建也可能存在问题

人工智能倾向于种族主义的另一个例子是人工智能图像的创建。如果您想创建一对浪漫情侣牵手的图像,所有发电机以白色为主的情况并不罕见。 2021 年 7 月,Dall-E 2 更新了其仪器,以“更准确地反映世界人口的多样性”。不幸的是,它仍然会产生混合的照片。当您在提示中添加“贫穷”一词时,只会出现有色人种。

这不仅限于有色人种; LGBTQI+ 群体也成为这些非包容性图像的受害者。当然,这些工具可以对其系统进行修改。要反映我们生活的世界,我们还有很长的路要走。正如 Zoe Larkin (Levity) 在一篇关于人工智能偏见的博客文章中所写:“不幸的是,人工智能并不能免受人类偏见的影响。它可以帮助人们做出更公平的决定,但前提是我们努力让人工智能在智能系统中变得公平。”

不要忘记人类编辑

在某种程度上,使用人工智能工具作为捷径是可以接受的。然而如今,内容创作者无论为人工智能提供何种数据,都会使用它们。这导致回声室的强化和扩大,并有助于创建类似的内容以及产生种族主义和非包容性/多样化的图像。因此,内容创作者需要更多地了解人工智能工具使用的数据和算法,以确保其内容真实、多样化和包容性,并且不会延续刻板印象或排他性做法。

很多在线内容不具有代表性

亚马逊的招聘工具和Dall-E 2是人工智能内容生成器的几个例子。人工智能内容工具走同样的道路并不奇怪,因为互联网上充斥着由说英语的普通白人顺性别男性撰写的内容。例如,牛津大学互联网研究所的一项研究发现,来自世界西方地区的编辑(主要是男性)对维基百科的贡献最多,造成了一种扭曲的世界观。虽然这是您的目标受众的一部分,但它并不是唯一的目标受众。目前,各种背景和经验的人只占所听到的声音的一小部分。如果我们想打破这种重复相同内容的循环,我们需要改进我们的写作并创造更全面的内容。这样我们就可以在更具包容性和多样化的互联网上训练未来的人工智能。

让今天的内容与未来更相关

尽量不要在会议中重复别人所说的话。用您的声音创建内容并将其提供给尽可能广泛的受众。所有这些都为每个人创造了更好的互联网。与您想要接触的受众进行适当的沟通。当您以包容的方式写作时,我的朋友,您正在帮助创建将使互联网在未来变得更好的内容。

意识到自己的偏见

不仅仅是人工智能有这种偏见;我们都有无意识的偏见,我们努力消除和发展这些偏见。这就是我们首先来到这里的原因。我们都需要更好地编写更具包容性的内容。我们只能通过花时间编写包容性内容来塑造当今的互联网。这反过来意味着我们可以使用更具包容性和更少贬义的语言来训练未来的人工智能工具。我们知道这是一项重大责任。这不会在一夜之间改变。这需要时间。毫无疑问,我们会犯错误。但通过现在努力创建多样化和包容性的内容,我们将开始迈向更好的互联网。

那我们能做什么呢?

您可以在内容创建过程中使用人工智能工具。但是,您必须在发布之前进行手动编辑。对人工智能工具正在取代的事物持批评态度。检查事实。并做出必要的调整。您不仅应该调整内容的基调,还应该审查其多样性和包容性。您应该找出任何有问题的内容。将其改进到任何人都可以理解的程度,并且您会对此感到满意。

如何让您的内容更具包容性

可能很难知道从哪里开始。这就是工具可以帮助您迈向更具包容性和多样化的互联网的地方。例如,我们在 SEO 中的包容性语言分析。这项新的分析可以帮助您发现何时无意识地使用了不具有包容性的术语,或者实际上是种族主义、性别歧视或体能歧视的术语。

与我们的读者分析一样,它会在我们的数据库中搜索文本中的种族主义、性别歧视、排他性或贬损性词语。它将帮助您理解这些排除的单词和短语。您将获得反馈和适当的替代方案,可以改进您的内容,以确保您的网站访问者感觉他们正在与您交谈。只要朝着正确的方向迈出一小步,我们就有希望使世界和网络成为一个对子孙后代以及人工智能的未来更具包容性和多样性的地方。

原创文章,作者:piter,如若转载,请注明出处:https://www.52foreigntrade.com/2023109601.html

(0)
piterpiter
上一篇 2023年10月9日 下午11:40
下一篇 2023年10月9日 下午11:40

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注