超级大本营军事论坛

 找回密码
 成为超大会员

QQ登录

只需一步,快速开始

查看: 2676|回复: 0
收起左侧

关于人工智能

[复制链接]
CDer:001187446
发表于 2020-10-08 12:41 | 显示全部楼层 |阅读模式

更多精彩专业军事内容,期待你的加入!

您需要 登录 才可以下载或查看,没有帐号?成为超大会员

x
本帖最后由 cd_lucky 于 2020-10-08 12:43 编辑

一直没在超大注册,只是潜水。但今天看这个帖子  https://lt.cjdby.net/forum.php?mod=viewthread&tid=2655803&extra=page%3D1 的内容,实在忍不住了,注册一个号参与导论。否则超大成科幻论坛了。
就人工智能方面我个人的观点如下,供参考:
人工智能粗分三个工作。 模式识别,环境/上下文分析,辅助决策。
模式识别这块是比较成熟的。主要工作是根据采集的数据(视频,音频,其他传感器),自适应的或根据先验的特征设定,确定对象。广义的说,仍然是信号处理,确定哪些是有价值的信号,哪些是噪声。这里信号是泛指,例如一张人脸,一段声音。模式识别是后面两个工作的基础。
环境/上下文分析,这包括了客观环境分析,例如空间识别,也包含了如语义分析。这块并不成熟。典型的就是语义识别并不成熟。
“没什么意思,一点小意思,只是意思意思”。 这句话没有上下文环境是分析不出不同“意思”的含义。
但 alpha go 这块相对简单。因为本质是在有限离散空间的最优路径的搜索。但对于现实世界的辅助决策,环境与上下文分析的工作必不可少。

自主决策,目前如何证明演绎逻辑的处理机器(典型的图灵机是演绎逻辑)具备归纳逻辑的处理能力。应该没有公认的成熟理论。简单说,自主决策这块并不成熟。 强人工智能是否只有主体才具备,这个尚待统一认知。 相对而言,人工智能的决策应该叫做辅助决策。或者说,强人工智能目前并没有合适的理论进行支撑。这里说个简单的例子:
如果自主决策的车辆在高速行进时有三个选择。 1、刹车或直接撞墙, 2、撞左边车辆(校车都是孩子), 3、撞右边车辆,(两个老人开车)。对应有三个后果,自身车辆上的生命受到严重损失,更多孩子生命受到严重损失,老人的生命受到严重损失。
单纯的,脱离社会道德/法律依据的纯粹演绎逻辑计算,是无法给出“最优解”的。
上述例子也无法通过所谓的机器人三定律来给出答案。
上述例子比较极端,但真进行自主决策时,这类问题会因为系统依附于主体-人,而系统自身不具备独自主体性,而广泛存在。
所谓的机器人三定律,大家当科幻臆想就可以了。不具备系统构造的指导意义。典型的一些错误如下:
第一定律 :机器人不得伤害人类个体。
这里没说好人,坏人。也没有对,“无论如何都会有人的损失下”的情况进行指导或约束。简单说,这是一个极端且无价值的约束。
即便外科医生,都不能保证,主观救人,手术失败导致人死亡的情况发生。这里也没有描述和定义 什么是 “伤害”。
简单总结, 辅助决策短期内可以看到很不错的效果。但强人工智能研究不具备可见的曙光。
最具影响力军事论坛-超级大本营军事论坛欢迎你!超然物外,有容乃大。
CDer:001173931
发表于 2020-10-11 21:51 超大游击队员 | 显示全部楼层

Re.关于人工智能

机器的自主深度学习,还是非常有效率的。
狗已经成为围棋高手了!
最具影响力军事论坛-超级大本营军事论坛欢迎你!超然物外,有容乃大。
您需要登录后才可以回帖 登录 | 成为超大会员

本版积分规则

监狱|手机|联系|超级大本营军事论坛 ( 京ICP备13042948号 | 京公网安备11010602010161 )

声明:论坛言论仅代表网友个人观点,不代表超级大本营军事网站立场

Powered by Discuz © 2002-2020 超级大本营军事网站 CJDBY.net (违法及不良信息举报电话:13410849082)

最具影响力中文军事论坛 - Most Influential Chinese Military Forum

GMT+8, 2020-11-01 06:19 , Processed in 0.022588 second(s), 5 queries , Gzip On, Redis On.

快速回复 返回顶部 返回列表