IS200TREGH1BEC人工智能只是一种技术
人工智能会超越人类?
近年来,随着人工智能技术的快速发展,公众的担忧有所上升。最响亮的声音之一来自于已故的斯蒂芬·霍金教授,他认为人工智能可能会毁灭人类。那么,该如何看待人工智能的威胁?应该采取行动控制人工智能吗?是否要像对待核能和其他潜在危险的技术一样,制定法律甚至是国际条约来控制人工智能的发展?
回答这些问题之前,首先需要明确的是,人工智能的成就目前仍很有限。现在的人工智能系统能够执行20年前计算机不可能完成的任务。比如,现在全世界每天都有数以百万计的人在使用文本自动翻译工具;无人驾驶汽车即将问世,未来10年将出现在马路上;计算机现在比人更善于识别人脸等。尽管这些成就令人印象深刻,但人们还是不知道应该如何使机器具有意识和自我感知。因此,在可预见的未来,人工智能接管世界仍将是科幻小说的情节。当然这并不意味着我们可以高枕无忧。
人工智能系统越来越多地被用于做出决策,这对人们产生了直接影响。例如,银行发现人工智能系统善于预测潜在客户是否会成为优质客户——是否会按时还债等。他们可以通过使用大量的客户记录,来“培训”一个人工智能系统。一段时间后,这一系统将能够分析潜在客户的详细信息,从而预测其是否优质。对于银行来说,可以迅速而低廉地决定是否需要一个特定的客户。但对于客户自身而言,应该会感到担忧:如果银行的人工智能系统在某种程度上存在偏见怎么办?
人工智能只是一种技术,就像任何技术一样,可以用来造福人类,也可能带来危害。条件反射式的立法,对于把控人工智能不太可能奏效。我们需要以负责和道德的方式使用人工智能,正如最近全球关于自主武器的讨论取得进展一样,国际社会需要应对解决人工智能带来的挑战。
FPR3346501R1012
FPM-3191G-R3BE
FPF8050HRUJ-001
FOXBOROFBM207
FOXBOROFPS400-24
FOXBOROSY-0399095E
FOXBORORH924UQ
FOXBOROP0926KP
FOXBOROP0916XG 底座
FOXBOROP0916PW
FOXBOROP0916AA
FOXBOROL0130AD
FOXBOROK0143AAAN
FOXBOROFPS400-24
FOXBOROFEM100
FOXBOROFCP280
FOXBOROFCP280
FOXBOROFCP270
FOXBOROFCP270
FOXBOROFCM2F2
FOXBOROFBM232
FOXBOROFBM227
FOXBOROC0134BX
FOXBORO873RS-BIYFGZ
FOXBORO873EC-JIPFGZ-5
FOXBORO873EC-JIPFGZ
FOXBORO871EC-SP0
FOXBORO871EC-REO
FOXBORO870ITEC-AYFNZ-7
FOXBORO870ITEC-AYFNZ
FOXBORO870ITEC-AYFNZ
FOXBORO0399085B
FOXBORO0399071D
FOXBOROFCM2F2
FORNEY火检探头UNIFLAME
FORNEY火检探头 UNIFLAME 401121-01
FORCE PowerCore PMC422FP
FORCE PMC422FP
FORCE PMC422F
FORCE PMC234
FORBORO 43AP-FA42C-PC
FMH2A09TR-RN23
FMH2A06TR-RN23
FM9925a-E
FM904F
FM902F
FM265/A
FLN4234A
FLN3524A
Fireye 85UVF1-1QD
FIREYE 85UVF1-1QD
Fireye 65UV5-1004ECEX
FIREYE 55uv5-1009
Fife CDP-01-MH
ABBFI840F 3BDH000033R1
ABBFI830F
ABBFI830F
ABBFI820F
FHA-32C-50-E250-C
FHA-32C-100-E250-C
FEM100 P0973CA
FDAQ-9189
FD1148T
下一篇:JS面试题 执行机制是怎样的?