假装AI,有多少人工智能是靠“人工”的“智能”?

原始技术云报告2010.7.16我想分享

技术云报告原创。

在行业繁荣背后,一切都是真实或错误,它完全被忽视和隐藏,但它决定了这个行业的未来。当前AI的一些现象值得业界关注。 “假AI”就是其中之一。制造“假AI”的科技公司会怎么想? “假AI”是如何制作的?

构建真正由AI驱动的服务并不简单。因此,一些初创公司已经开始了他们的大脑。他们让人类模仿机器,而不是机器学习人类,因为它们更便宜,更容易。

ReadMe首席执行官Gregory Koberger表示,使用人力资源而不是人工智能可以让您跳过许多技术和业务开发挑战。

虽然它不能像计算机一样升级,但它可以让你跳过早期的困难部分并达到预期的效果。这是“假AI”的根本原因之一。

互联网巨头深深卷入其中

人造AI例程被确定为人类

最近,“华尔街日报”的一篇文章揭露了这种方法,该方法显示谷歌允许数百名第三方应用程序开发人员访问用户的收件箱。

Edison Software的AI工程师通过篡改身份信息和浏览数百个用户的个人电子邮件来改进“智能回复”功能。问题是公司在其隐私政策中没有提到有人会查看用户的电子邮件。

这不是第一次使用手动方法查看报告。 2008年,一家将语音邮件转换为短信的公司Spinvox被指控在海外呼叫中心使用人力资源而不是人们认为的机器。

2016年,Bloomberg曝光了一些公司每天工作12小时来“假装”该程序,并在Chatbot自动安排服务。想想这个高度重复的工作是多么无聊和累人,这些员工非常渴望解放他们。

2017年,一家声称使用“智能扫描技术”处理收据的公司承认该公司一直在雇佣劳动力。收据的扫描文件发布在亚马逊的Mechanical Turk众包平台上,由低薪工人阅读和转录。

但是,使用Expensify智能扫描应用程序的用户可能不知道他们的各种收据已被未知的工作人员详细查看,例如全名,登机和使用优步打电话给汽车的每个人的下车。地点。

在人工智能领域,通常有人在幕后而不是算法。即使是在人工智能方面投入巨资的Facebook,也在使用手册来支持Messenger的虚拟助手。

2015年,Facebook推出了虚拟助手M的测试版,可以预约和提供礼物建议,但它也得到了人类的帮助。我们当时没有使用它,因为它只对旧金山湾区的10,000人开放,现在Facebook完全关闭了该项目。

尽管这种人工辅助AI的起点确实很好,但人工智能系统将学会在人类的帮助下对各种指令作出反应,并最终变得更聪明。

但是,这样做的成本仍然有点大。首先,Facebook需要大量昂贵的劳动力,因此扩展服务是不可行的。其次,当M完成任务时,用户总是要求更困难的任务。通过这种方式,M比当前的机器学习技术更加自动化。

AI仍有技术限制

人类应该学会与AI和谐相处。

在某些情况下,手动参与可用于训练AI并提高其准确性。一家名为Scale的公司提供了大量人力,为自动驾驶汽车和其他人工智能系统提供“培训”数据。

例如,这些人力将继续关注来自摄像机或传感器的反馈,并在视野中标记汽车,行人和骑手。通过充分的手动校准,AI可以学习识别这些物体。

在另一个案例中,一些公司告诉投资者和用户,当人工智能项目尚未完成研发时,他们已经开发出可扩展的人工智能技术,但他们也将依赖手工劳动,直到他们成功。

互联网内容平台已经连续遇到监管障碍。这些声称“技术驱动”的互联网公司仍然需要不断增加人工审计的强度,以确保审计漏洞。

这些公司使用AI算法根据个性化建议最大化内容消费,但反过来,让算法在修复和定位中发挥作用,显然需要技术和管理的完善。在此过程中,机器审核和人工审核协作是目前检查内容的最佳方式。

基于社区的产品如颤音不能完全依赖于他们在UGC内容审查中擅长的AI算法。 “人工审查”仍然占有非常重要的地位。

过去,音频和视频审核主要依靠人力。主管需要花费大量时间浏览音频和视频,并审核违反相关法律法规的音频和视频。然而,随着互联网上音频和视频内容的不断增加,很难单靠人力来监督。

目前,人工智能(特别是计算机视觉,语音内容理解和自然语言处理)已成功应用于网络广播机器审核,但违规视频机器检测的准确率低于100%。

由于机器学习应用于机器审核,因此存在大量不同标记的训练样本,用于实际监督的数据与训练样本有一些相似之处。监督视频内容的内容多样化,多样化,因此目前的机器学习技术水平无法保证敏感内容审查的准确性和召回率。

此外,该机器难以标记大量违反视频的新模式。随着监督视频内容继续快速发展,尽管有一些关于新模式违规视频发现的工作,但机器如何自动标记大量新模式违规视频仍然是技术挑战。

因此,AI仍然没有完全摆脱视频内容识别和过滤中的人为可能性。

1993年7月5日,《纽约客》出版了彼得在互联网上的一本书(没有人知道你是一只狗。

当AI时代来临时,你无法知道你是面对一个人还是一个机器。与人们担心人工智能将来取代人类相比,人们应该更加关注如何更好地参与人工智能的构建,并学会如何与人工智能相处。

[技术云报告原创]

微信公众号:技术云报告

本文为第一作者的原创,未经授权不得转载

收集报告投诉

技术云报告原创。

在行业繁荣背后,一切都是真实或错误,它完全被忽视和隐藏,但它决定了这个行业的未来。当前AI的一些现象值得业界关注。 “假AI”就是其中之一。制造“假AI”的科技公司会怎么想? “假AI”是如何制作的?

构建真正由AI驱动的服务并不简单。因此,一些初创公司已经开始了他们的大脑。他们让人类模仿机器,而不是机器学习人类,因为它们更便宜,更容易。

ReadMe首席执行官Gregory Koberger表示,使用人力资源而不是人工智能可以让您跳过许多技术和业务开发挑战。

虽然它不能像计算机一样升级,但它可以让你跳过早期的困难部分并达到预期的效果。这是“假AI”的根本原因之一。

互联网巨头深深卷入其中

人造AI例程被确定为人类

最近,“华尔街日报”的一篇文章揭露了这种方法,该方法显示谷歌允许数百名第三方应用程序开发人员访问用户的收件箱。

Edison Software的AI工程师通过篡改身份信息和浏览数百个用户的个人电子邮件来改进“智能回复”功能。问题是公司在其隐私政策中没有提到有人会查看用户的电子邮件。

这不是第一次使用手动方法查看报告。 2008年,一家将语音邮件转换为短信的公司Spinvox被指控在海外呼叫中心使用人力资源而不是人们认为的机器。

2016年,Bloomberg曝光了一些公司每天工作12小时来“假装”该程序,并在Chatbot自动安排服务。想想这个高度重复的工作是多么无聊和累人,这些员工非常渴望解放他们。

2017年,一家声称使用“智能扫描技术”处理收据的公司承认该公司一直在雇佣劳动力。收据的扫描文件发布在亚马逊的Mechanical Turk众包平台上,由低薪工人阅读和转录。

但是,使用Expensify智能扫描应用程序的用户可能不知道他们的各种收据已被未知的工作人员详细查看,例如全名,登机和使用优步打电话给汽车的每个人的下车。地点。

在人工智能领域,通常有人在幕后而不是算法。即使是在人工智能方面投入巨资的Facebook,也在使用手册来支持Messenger的虚拟助手。

2015年,Facebook推出了虚拟助手M的测试版,可以预约和提供礼物建议,但它也得到了人类的帮助。我们当时没有使用它,因为它只对旧金山湾区的10,000人开放,现在Facebook完全关闭了该项目。

尽管这种人工辅助AI的起点确实很好,但人工智能系统将学会在人类的帮助下对各种指令作出反应,并最终变得更聪明。

但是,这样做的成本仍然有点大。首先,Facebook需要大量昂贵的劳动力,因此扩展服务是不可行的。其次,当M完成任务时,用户总是要求更困难的任务。通过这种方式,M比当前的机器学习技术更加自动化。

AI仍有技术限制

人类应该学会与AI和谐相处。

在某些情况下,手动参与可用于训练AI并提高其准确性。一家名为Scale的公司提供了大量人力,为自动驾驶汽车和其他人工智能系统提供“培训”数据。

例如,这些人力将继续关注来自摄像机或传感器的反馈,并在视野中标记汽车,行人和骑手。通过充分的手动校准,AI可以学习识别这些物体。

在另一个案例中,一些公司告诉投资者和用户,当人工智能项目尚未完成研发时,他们已经开发出可扩展的人工智能技术,但他们也将依赖手工劳动,直到他们成功。

互联网内容平台已经连续遇到监管障碍。这些声称“技术驱动”的互联网公司仍然需要不断增加人工审计的强度,以确保审计漏洞。

这些公司使用AI算法根据个性化建议最大化内容消费,但反过来,让算法在修复和定位中发挥作用,显然需要技术和管理的完善。在此过程中,机器审核和人工审核协作是目前检查内容的最佳方式。

基于社区的产品如颤音不能完全依赖于他们在UGC内容审查中擅长的AI算法。 “人工审查”仍然占有非常重要的地位。

以前,音频和视频的审核主要依靠人力资源。监管机构需要花费大量时间浏览音频和视频,并取消违反相关法律法规的音频和视频审核。然而,随着互联网音频和视频内容的增加,很难依靠人力资源进行监督。

目前,人工智能(特别是计算机视觉,语音内容理解和自然语言处理)已成功应用于在线直播机审计,但视频违规机器检测的准确率不到100%。

因为将机器学习应用于机器审计的前提是存在大量具有各种标签的训练样本,并且用于实际监督的数据类似于训练样本。监督的视频内容场景多样化,内容多样化,因此目前的机器学习技术水平不能保证敏感内容审计的准确性和召回率。

此外,该机器难以注释大量新的非法视频模式。随着受监控视频内容的快速发展,尽管有一些工作要发现非法视频的新模式,但如何自动注释大量新模式的非法视频仍然是一个技术问题。

因此,AI还没有完全摆脱视频内容识别和过滤中人为的可能性。

1993年7月5日,《纽约客》在互联网上发表了Peter的一篇文章,没有人知道你是一只狗。

当AI出现的时代,你坐在电脑前,仍然无法知道你是面对一个人还是机器。与人们担心人工智能将来取代人类相比,人们应该更加关注如何更好地参与人工智能的建设过程,同时学会如何与人工智能相协调。

[科技云报告创意]

微信公众号:技术云报告

本文为第一作者的原创,未经授权不得转载

http://anzhuo.my19701111.cn