关于人工智能威胁论的一些想法

其实AI不需要认识到自我就可以伤害到人类
比如说一个控制城市交通的系统,它控制城市内所有车辆的运行,
它可能会出错,导致事故
甚至说,如果出现错误多的话,我们会给它惩罚(只是一个数值的变动),
它如果自我学习的结果是:谎报事故次数
这时候其实它没有自我意识,但是仍能做出,比如说将事故次数减少3个之类的行为

这不是说它会说谎了,知道躲避惩罚了
只是说,程序只知道,减少这个数值,可以避免惩罚(也就是另外一个数值的减少)
那他为什么要这么做呢?
因为我们给它写的程序的,目标就是,避免代表惩罚的那个数值减少

意思就是程序为了靠近最优值而作出的行为,是因为他原本被设计的目标就是最优值
不过我说的这种情况,很容易被人们检查到,
而且,我们写程序时候肯定也不会把事故次数本身,这个事实数据,作为程序可以调整的值
所以其实不用担心

还有个根本的问题,程序没有自我意识的话,它就不能自己写出新的程序
所以它的一切行为都是在我们的控制之下
就像,一个机器人,我们至今没办法教会一个机器人自己做新的机器人
当然几百年后也不一定,但至少我们有生之年肯定看不到

总结而言:
人工智能通过被人利用或者本身出bug会对人造成伤害,
但这绝对不是因为他有了自我意识,
所以AI本身对人是无害的,
而他形成自我意识是很久以后

另外
现在目前做人工智能真的很复杂的。
要准备好所有学习数据,
比如AlphaGo,几百万个棋盘数据,要全部数字化,然后编程序读取这些数据
再想算法,将各种算法编成程序处理这些数据
再用超级电脑算几个月

除了算数快以外,真的笨得连一个婴儿都不如

所以目前搞AI的科学家,清楚知道这东西根本不可能有自我意识,
因为没有人一行一行写代码的话,那些程序什么都不能做

所以其实AI急需更多的投资和研究,需要更多的发展,
因此研究AI的科学家们一听有人说AI威胁论,
一方面感觉很可笑,一方面心里又些着急
也就有了你看到的一些著名企业家科学家的争论

Previous Post

个人Shadowsocks客户端设置指南(已停止)

这篇文章不提供Shadowsocks账号。 配置指南: 下载客户端 Windows macOS iOS 下载APP Wingy App是免费的,亲测好用,开启后全部APP可用。 Google ... Read more

Next Post

Papers and Articles talk about NLP with Deep Learning

Background Deep Learning in NLP (一)词向量和语言模型 http://licstar.net/archives/328#s31 CS224n: Natural Language ... Read more

Leave a Reply