
谷歌今天宣布,它将在未来几个月内为所有用户默认启用其安全搜索过滤技术。 该过滤器旨在帮助人们保护自己和家人免于在搜索中无意中遇到色情图片。 这家搜索巨头表示,它今天宣布推出该功能是为了纪念“更安全的互联网日”。
此设置很快将成为未打开安全搜索过滤器的用户的新默认值。 因此,如果搜索结果中出现露骨的露骨色情图片,谷歌将对其进行模糊处理,其中包括色情、暴力和血腥等色情内容。 谷歌指出,用户可以随时选择调整此设置。 在此扩展之前,过滤器已默认为 18 岁以下的登录用户启用。
一旦此设置成为默认设置,Google 将通知您它已启用安全搜索模糊处理。 如果您遇到露骨色情图片,您可以通过点击“查看图片”按钮来选择查看它。 或者,您可以选择“管理设置”按钮来调整过滤器或将其完全关闭。 例如,可以选择“过滤”选项,这有助于过滤掉露骨的图像、文本和链接。 或者您可以选择“关闭”选项,这意味着您将看到与您的查询相关的所有结果,即使它们是明确的。
值得注意的是,SafeSearch 仅适用于 Google 的搜索结果,它不会阻止您在其他搜索引擎或您直接访问的网站上找到的露骨内容。 Google 还指出,虽然 SafeSearch 并非 100% 准确,但它有助于从 Google 搜索结果中过滤掉有关图像、视频和网站的所有查询的露骨内容。
2021 年 8 月,当美国国会就其服务对儿童的潜在负面影响向谷歌和其他科技公司施压时,谷歌最初默认为 18 岁以下的登录用户启用安全搜索。
通过默认为所有用户启用安全搜索过滤,谷歌将更容易确保儿童和青少年不会遇到露骨图像,因为并非每个人都在登录时使用谷歌,这意味着即使他们未满 18 个,过滤器可能没有为它们启用。 此扩展还将此功能公开给那些可能不知道它但可能会发现它有用的人。 当然,如果你不想启用过滤器,你可以在设置中将其关闭。
去年,谷歌表示它开始使用人工智能来提高其在人们没有专门寻找时从搜索结果中删除不需要的露骨或暗示性内容的能力。 即使关闭了 Google 的 SafeSearch 过滤技术,Google 仍在尝试从这些搜索中清除不需要的露骨内容,而找到露骨内容并不是目标。 但是一种称为 BERT 的人工智能技术现在可以帮助谷歌更好地了解人们是否在寻找露骨的内容。