C:现在神经网路发展多快
60年前有128位处理能力的计算机还是科幻小说呢
E:现在的人工智能都是可以解决问题的,不是机器是程序
C:我们要得是更发达的东西
而不是现在那样稍微一有变动就不知道怎么解决问题的笨蛋
B:真的出现了也很麻烦,如果强大到相当于几十万人的现代化军队的力量,后果非常严重啊
C:我觉得只要是人,总会有办法的
C:它毕竟会有开关
A:机器不会的吧
A:马上都要更新太阳能了
A:机器人靠太阳能不就够了
B:机器人只能服务于人类,最多只能与人类和平共处。但是机器人不允许形成大规模的组织结构,不能参与在人类统治阶级中。不然人类的命运可能就会被改变了。
不过我估计这些问题大概在100年以后才有可能出现。
A:人类最重要的是精神。我们现在只是要把精神遗志到机器上
A:换句话说。就是机器取代我们
A:但是我们还是存在的
C:我们总得给自己留下后路吧
设计他们必须要可以阻止他们啊
A:家用机器人。。。
A:能拿个20公斤的东西就差不多了
B:和人一样聪明了,你想得到,它也想的到。
比人还要聪明,就会深不可测了。
A:打不过人
B:你得意思就是发展到一定阶段,具有动物级别得智能以后就停止发展机器人智能
A:机器不会无援无故的毁灭人类吧
B:假设它和人类一样只能生存在地球上,如果它觉得自己比人类更优秀,人类是低级只能,而它更适合存在。就可能会倾向于大量复制自己,这就会和人类产生资源和空间上的竞争。
C:这些东西谁都无法预测
A:这个只是设计上的问题
A:如果出现了
A:只要更改程序就行了
B:人工智能,神经网络已经不属于程序范畴了。没有那条语句可以让你改的。
A:就算机器取代人类
A:那就说明人类不如机器
A:按到优胜虐汰
B:如果出现那种竞争,除非毁灭它的意识,否则不可能改变它的思想。
A:那只能怪人类自己不行
A:取代就取代。没啥啊
A:大不了人类毁灭
A:但是我们的精神
A:还在
E:人工智能不只是神经网络,也不会强于人类
B:[:D]那还要不要造胜过人类的人工智能啊。
C:这个是不是我们某个人可以改变的
世界的趋势就是发展这个
没人能阻止
E:可以胜过我们每一个人,但是不会胜过人类,这是一个系统问题
C:这个不好说
B:是啊,所以它不能形成组织,不能具有军队般的能力。
可是谁知道它会不会有产生组织这种需求啊。
A:我到是希望机器能取代人类
B:也许它会悄悄地建立自己地组织结构,直到发现时为时已晚
E:机器人有个国际公约,就象不能克隆人一样
C:不是国际标准协会已经制定制造机器人的标准吗?
只要机器人是按照这些标准制造,那就不可能伤害人类
B:有国际公约也阻止不了某些人的克隆行为,不是有人在公海上做这种试验吗
E:要是机器人能伤害人,那首先伤害的是他自己,并且机器人的能源他自己解决不了
B:人时很懒的又是很贪的总希望机器人能做出更多的事情,所以会不断加强机器人的功能。
如果研制出某种机器智能,它可以轻而易举地解决困扰爱因斯坦的那种物理学、数学难题,
可以轻而易举地发明新的产品,新的理论知识。也许有人觉得很有必要造出来,但是这种强大智能的副作用大概就。。。
B:我觉得非常有可能造出速度比人脑快,物理结构比人脑先进的人工大脑。
C:首先得了解人脑自己的工作原理
这样才有可嫩
E:人自己都解决不了,机器凭什么能解决?
A:计算机的速度
A:和我们计算的速度比比
A:要是让计算机有智能
B:如果造出超过10个人规模的神经元,每个神经元的运算速度超过人脑化学运算速度的1000倍
B:它也许很快就能实现超越人类的智能。
B:制造这种网络的人也无法预知网络的能力。
E:速度能是智能吗,
B:规模和速度完全超越人脑呢?
A:我想不用担心
A:电脑完全靠电的
A:到时候只要把电场全都摧毁
A:就可以了
A:太阳能可以利用人工降雨
E:有一个概念没有搞懂,火箭的速度早超过动物了,可它的智能在哪里?
A:火箭和马比
A:不是计算工具
A:火箭只不过是交通工具
B:是说思维的速度,你想一个问题的时候,它可能思考过千百个问题了。
B:不是那种计算下棋那样的穷举法,是针对复杂性问题的思维速度,人想一个的时候,它可能想千百个。
E:机器就不会真正的思维,只是仿真思维或者辅助思维
A:机器可以思维
A:机器和构成人的材料没什么不同
C:你的思想有些落后了
建议你看看群共享里的文章:
“‘人工智能永远不可能超越人脑’吗?”