数学之美,AI之始(下)
人工智能的作恶模式可能会是怎样的?
只有想不到,没有做不到。
凡事有光明必有黑暗的一面。
之所以说是AI可能作恶,而不提AI主动反人类,是因为以目前AI曝光的水平,这事看起来还有点玄幻,不知道有生之年能不能看到。
尽管有些业内人士公开表示担忧AI的未来,但多数皆语焉不详,我们也就无从揣测,这事的真实性到底如何。
可如果是人主导的人工智能干坏事,则也许在世界的某处,已经有人酝酿发酵或付诸行动了。
人工智能首先最大的隐忧,是数据或者个人隐私安全,那些直接和大数据打交道的工作人员,那些网络另一端无处不在的黑客或黑客集团,掌握着获取和利用个人私密信息,包括金融信息等的工具。
一旦他们有作恶的动机,个人在其面前几乎毫无招架之力。
第二个担心来自我们自身有意无意透露的各种信息集合,为商家提供了钻空子的便利。搜索引擎会随时记录我们所有搜索关键词, 购物网会记住我们浏览过的商品。
AI根据这些个性化的数据,分析个性化用户的年龄、收入、偏好。我们享受了高针对度推送服务的同时,也必须承受各种未觉察的歧视。
比如航空公司对不同类人员,同一座位发布的机票价格不一样,收入高人群可能票价更高。而据称美国此前一个案件的判例,是判定互联网商家“看人下菜碟”行为合法的。另外,从电商处购物时经常维权退货的顾客,买到假货的概率就比“买了吃哑巴亏”的顾客低很多。
第三种情况,波及面就更广了。在哈佛大学数学系博士、华尔街前投资顾问撰写的新书《“杀伤性武器”大数据》里,提到了所谓“大数据之害”。
数据自身是中立的,而模型的主观性,则会引发社会性的群体歧视或迫害。因此设计数学模型的工程师,保持对各类人的客观视角非常重要。
书中列举了美国司法系统对犯罪档案大数据的运用,软件推断一个犯人是否再犯罪,依据的是犯人住址和犯人亲戚的犯罪记录,而这两条对黑人不利。因为美国有相当一部分黑人和其亲戚,住在犯罪率较高的街区。
按照软件的逻辑,住在高犯罪率地区犯人容易再犯,家族有案底的犯人也容易再犯,那这些犯人就要加长刑期。而加长了刑期,犯人出狱后再犯的概率又会提高,如此便陷入一个循环怪圈。
最后一条,有点像好莱坞大片的常设桥段了。一大群不明真相的群众,帮助邪恶势力及其掌控的超级电脑,围追堵截少数背负拯救全球大任的英雄。而这些英雄,个人身份信息都被抹掉了,属于非法公民。
说到这,不能不提一下图灵测试。它是国际公认的,评价一个机器是否具备人工智能的标准方法。
1950年,阿兰.图灵博士在题为《计算的机器和智能》论文中,说到让一台机器和一个人坐在幕后,让一个裁判同时和幕后的人和机器进行交流。如果这个裁判无法判断自己交流的对象是人还是机器,就说明这台机器有了和人同等的智能。
我们不妨这么考虑一下,机器现在还没有智能化到假装通不过图灵测试,但是胜在它有无与伦比的深度学习能力。
如果有朝一日它成了超级人工智能,会不会被狂热的科学家或恐怖分子人为操纵,伪装过不了图灵测试,实际上却具有控制全人类的能力,这真是细思极恐的一件事。
话说回来,新生事物有黑有白亦正常。人是人工智能的发明者、应用者,有义务和责任从法律道德伦理角度,去完善约束机制。过程积累需要一段较长的时间,期望伴随着人工智能成熟度不断提高,配套的管控方法也会日趋成熟。
写在最后
工业时代及之前的机械思维,代表人物包括牛顿、爱因斯坦等大家,采用的都是大胆假设、小心求证的方法,先找规律再想法去验证。
一则所耗费的时间可能很长,灵感来源有运气的成分在里面,传说牛顿发现万有引力是因为被苹果砸到,爱因斯坦在书房受一道阳光启发而发现相对论;二来如果规律或者模型假设的不对,就在错误的路上越走越远。
而基于大数据的统计分析,善于发现表象上显示不出来的隐含规律,就为问题的精准定位和解决,找到了一条可靠的“捷径”,也是一种全新的智能思维方式。当然,前提是数据足够多,模型公正客观。
人工智能的未来,好的坏的,均是趋势使然。我们逃避不了,唯有认识它、正视它,消除我们自身大脑对这个新鲜事物的不确定性。因此进化到人工智能时代,我们更应该要培养这种智能思维。
按照吴军博士的观点,蒸汽机、电和信息技术主导了前三次产业革命。每个时代迈进的黄金期,只有极为少数的人能敏感捕捉趋势,拥抱了先机。
由于社会的财富总量在一定时期内是固定的,所以这部分抓住机遇的人,就成为了当时社会的弄潮儿。智能时代或者说大数据时代亦如此。
所以,撇掉那些浮在表层的泡沫、浮夸与跟风。在人工智能即将全面来袭的时候,我们,做好当这2%的准备了吗?
人工智能的作恶模式可能会是怎样的?
只有想不到,没有做不到。
凡事有光明必有黑暗的一面。
之所以说是AI可能作恶,而不提AI主动反人类,是因为以目前AI曝光的水平,这事看起来还有点玄幻,不知道有生之年能不能看到。
尽管有些业内人士公开表示担忧AI的未来,但多数皆语焉不详,我们也就无从揣测,这事的真实性到底如何。
可如果是人主导的人工智能干坏事,则也许在世界的某处,已经有人酝酿发酵或付诸行动了。
人工智能首先最大的隐忧,是数据或者个人隐私安全,那些直接和大数据打交道的工作人员,那些网络另一端无处不在的黑客或黑客集团,掌握着获取和利用个人私密信息,包括金融信息等的工具。
一旦他们有作恶的动机,个人在其面前几乎毫无招架之力。
第二个担心来自我们自身有意无意透露的各种信息集合,为商家提供了钻空子的便利。搜索引擎会随时记录我们所有搜索关键词, 购物网会记住我们浏览过的商品。
AI根据这些个性化的数据,分析个性化用户的年龄、收入、偏好。我们享受了高针对度推送服务的同时,也必须承受各种未觉察的歧视。
比如航空公司对不同类人员,同一座位发布的机票价格不一样,收入高人群可能票价更高。而据称美国此前一个案件的判例,是判定互联网商家“看人下菜碟”行为合法的。另外,从电商处购物时经常维权退货的顾客,买到假货的概率就比“买了吃哑巴亏”的顾客低很多。
第三种情况,波及面就更广了。在哈佛大学数学系博士、华尔街前投资顾问撰写的新书《“杀伤性武器”大数据》里,提到了所谓“大数据之害”。
数据自身是中立的,而模型的主观性,则会引发社会性的群体歧视或迫害。因此设计数学模型的工程师,保持对各类人的客观视角非常重要。
书中列举了美国司法系统对犯罪档案大数据的运用,软件推断一个犯人是否再犯罪,依据的是犯人住址和犯人亲戚的犯罪记录,而这两条对黑人不利。因为美国有相当一部分黑人和其亲戚,住在犯罪率较高的街区。
按照软件的逻辑,住在高犯罪率地区犯人容易再犯,家族有案底的犯人也容易再犯,那这些犯人就要加长刑期。而加长了刑期,犯人出狱后再犯的概率又会提高,如此便陷入一个循环怪圈。
最后一条,有点像好莱坞大片的常设桥段了。一大群不明真相的群众,帮助邪恶势力及其掌控的超级电脑,围追堵截少数背负拯救全球大任的英雄。而这些英雄,个人身份信息都被抹掉了,属于非法公民。
说到这,不能不提一下图灵测试。它是国际公认的,评价一个机器是否具备人工智能的标准方法。
1950年,阿兰.图灵博士在题为《计算的机器和智能》论文中,说到让一台机器和一个人坐在幕后,让一个裁判同时和幕后的人和机器进行交流。如果这个裁判无法判断自己交流的对象是人还是机器,就说明这台机器有了和人同等的智能。
我们不妨这么考虑一下,机器现在还没有智能化到假装通不过图灵测试,但是胜在它有无与伦比的深度学习能力。
如果有朝一日它成了超级人工智能,会不会被狂热的科学家或恐怖分子人为操纵,伪装过不了图灵测试,实际上却具有控制全人类的能力,这真是细思极恐的一件事。
话说回来,新生事物有黑有白亦正常。人是人工智能的发明者、应用者,有义务和责任从法律道德伦理角度,去完善约束机制。过程积累需要一段较长的时间,期望伴随着人工智能成熟度不断提高,配套的管控方法也会日趋成熟。
写在最后
工业时代及之前的机械思维,代表人物包括牛顿、爱因斯坦等大家,采用的都是大胆假设、小心求证的方法,先找规律再想法去验证。
一则所耗费的时间可能很长,灵感来源有运气的成分在里面,传说牛顿发现万有引力是因为被苹果砸到,爱因斯坦在书房受一道阳光启发而发现相对论;二来如果规律或者模型假设的不对,就在错误的路上越走越远。
而基于大数据的统计分析,善于发现表象上显示不出来的隐含规律,就为问题的精准定位和解决,找到了一条可靠的“捷径”,也是一种全新的智能思维方式。当然,前提是数据足够多,模型公正客观。
人工智能的未来,好的坏的,均是趋势使然。我们逃避不了,唯有认识它、正视它,消除我们自身大脑对这个新鲜事物的不确定性。因此进化到人工智能时代,我们更应该要培养这种智能思维。
按照吴军博士的观点,蒸汽机、电和信息技术主导了前三次产业革命。每个时代迈进的黄金期,只有极为少数的人能敏感捕捉趋势,拥抱了先机。
由于社会的财富总量在一定时期内是固定的,所以这部分抓住机遇的人,就成为了当时社会的弄潮儿。智能时代或者说大数据时代亦如此。
所以,撇掉那些浮在表层的泡沫、浮夸与跟风。在人工智能即将全面来袭的时候,我们,做好当这2%的准备了吗?
欢迎大家继续关注慧邮件邮件营销平台,也可以在我们的慧邮件官网了解更多邮件营销技巧,大数据知识,也可以通过电话:400-666-5494联系到我们,更多精彩知识、活动等着你。