阿尔法狗现在连星际的简单电脑都打不过,是真新闻吗?
- tanglee4950为啥不用红警先来
然后还有一个问题,如果ai还不如简单的电脑难度,那简单的电脑是怎么算的? - Jonsoncao用SGD根本不存在算力够不够的问题,只有你收敛到你想要的每个神经元上面的能把目标函数最小化的参数的收敛速度快慢问题。
用固定长度时间步长里面做的决策对最终结果影响作为样本进行训练的话,SGD收敛慢没有办法,关键是样本要多
AlphaGo和自己下了几千万盘棋,Deepmind的论文原文里面才有80万盘游戏(但是时间步长有6亿,用SGD也要很久才能跑完所有样本)
Deepmind的用固定步长的策略是受到神经网络现有数学分析的限制,我目前的研究正在致力于改变这一现状。 - wfur简单电脑不算,是暴雪给出了既定打法,基本就那么几个套路,没什么变化。这么说把,就跟魂斗罗的NPC一样,你只要熟悉了,基本可以知道几分几秒电脑再干嘛
- 來福時代围棋每步操作带来的收益评估那是相当明显,直接了当
星际apm那么多,电脑都没法评估那些操作带来正收益,这涉及到游戏规则框架下战略意识的理解,没解决这问题你喂再多的对战录像数据也没用
[本帖最后由 來福時代 于 2018-2-23 01:54 编辑] - jiejieup现在的 AI 就是黑盒,压根不知道它为什么会那么下,和人脑真的不一样,这只能说在某些领域这些 AI 碰巧运行的不错,你问搞研究的为什么这些 AI 效果那么好?其实他们也不知道。
- kirbyx从ai角度说,这并无区别。
- kirbyx民科,鉴定完毕。
- zero3rdRTS核心是经济,虽然有战争迷雾但是地图是固定的,不会一会五个矿一会三个矿,而且矿点也是固定的。简言之当一张地图被选定了,其上限也就被定死了。
这张地图的矿最多造出50个大和,那么对手有60个大和的情况就不会存在。
如果人族最快造出飞机的时间是10分钟,那么前10分钟敌人只能从陆路来侦查与攻击。
同样走陆路,发动一场进攻的最速行军路线也是在选定地图时就已经可以确定的。
地图虽然按像素点来定义是很多个点,但是单位却是有体积的,所以其行动要按最小活动单元来定义,所谓精确定义到一个像素点实际上并不存在。
更不用说游戏中各单位的数据也是明确的,一场遭遇战的最佳火力布置对于战场2D化的星际来说根本不算难题。
所以某些人鼓吹的无限其实只是一种自我臆想而已。
星际这个项目之所以难,在于项目组想要让AI自己学会价值判断,在未知环境下也能根据预期的目标作出正向的应对。
如果单单只是为了打赢人类,google还没有那么闲。
本帖最后由 zero3rd 于 2018-2-23 07:37 通过手机版编辑 - kenkiller1说的没错,这算是玩过游戏的,其实根本胜利这个长期任务很容易分解成三个分支。
1,运营流全放防流,一个星际争霸地图,矿点出生点位,野兵营位置职业玩家玩了上万把。闭着眼镜都能知道,没道理,AI练习那么久还不知道,星际争霸策略中就有一种就是运营的全防流,其核心就是靠运营跟坚强的防守来放大资源采集跟兵力增长速度,然后耗死或者在一个特殊的timing 一锤定音。给Ai设置一个目标就是在全防流的兵力部署下尽可能的提高自己的经济增长量,这就是短期任务,如果没有这个任务制定,AI也不太可能通过强化学习得到下面一个行动是更有价值的,所以说,其实不是AI无能,是AI研究者不了解游戏,至少要请几个职业玩家来分析游戏并给AI 指示一个基本的套路。
2,极限快攻流,
3,标准套路流,把生产顺序按照一定的规则固定下来,然后AI的大部分算力集中在战斗上,如何拉扯阵型,如何龙骑跳舞,龙狗协同作战,
综上,其实短期的任务目标很好设定,包括所谓非完全信息游戏,但是你别忘记星际争霸有人口跟地图的限制,高端玩家,农民到你家一趟通过农民数量跟时间点就能判断出你大概全力暴兵的Timing跟科技状况,所以是可以把非完全信息转化成完全信息,无非这个转化策略的问题,如果去制定任务,如果说围棋只需要一个任务跟值网络跟行动网络的化。
那么星际争霸围绕着胜利需要多个智网络跟选择网络来综合判断,我个人认为如何让AI来处理这么多网络协同并学会如何胜利,如果初期人类不能制订一个目标而靠AI完全自己学习的化,是不太可能短期内就有成功的。你要这么想,因为围棋自我对弈的时期对AI来说可能几分钟就能下完一局,但是星际争霸的时间流逝是规定好的,一个农民要多少秒的时间建造,AI完全没可能几分钟就自我对弈一局,所以我个人认为星际争争霸的AI目标,假设有的化,其实就是架构设计的问题,而不是AI本身的问题。 - 信天飞鸿其实AI这个东西,要看怎么比。
目前的AI,创造能力为零,单一领域的学习能力也远远不如人类。但是人类会疲倦、需要娱乐、需要吃饭睡觉打屁聊天。但是AI不需要。
go在围棋领域能站到世界第一,并不是因为AI的创造力或者学习能力已经匹及人类或者超越人类了。而是计算机本身从一开始的固有优势在google新算法的支持下,越发凸显出来了。其实go走到围棋的世界第一,下过的棋,复过的盘,恐怕没有一个棋手穷其一生能做到。回过来看就是,并不是AI的“脑袋”超越的人类,而是人类自己的“肌体”限制了人类“脑袋”的潜力发挥。
[本帖最后由 信天飞鸿 于 2018-2-23 08:19 编辑] - 大头木说白了阿发狗就是一个更先进的筛选算法,星际的算法还没找到而已。围棋有定式,算法更好写
- breadabo人家的项目才刚开始一年,泥潭就等不及要判死刑了么?
星际这种非对称信息的博弈明显不能套用棋类的思路,怎么描述和解决这个问题人家还在摸索呢。现在就下结论和5年前那些断定电脑玩不了围棋的人有什么区别?
58楼说得好,人家deepmind玩这个项目可不单纯是为了在这个游戏上战胜人类而已。人家是想找到这种高度模拟现实问题博弈的通用解决方法,所以人家才会放出开源代码和API,鼓励全世界其他小组来一起玩这个项目。
deepmind目前放出来的信息很有限,除了半年前的论文和开源代码,就没有太多更新的东西了。只有几个短视频说明算法已经自己学会了高效率的采矿以及单兵种的战斗控制技巧。这么有限的信息,不知道泥潭人士凭什么就断定人家这个项目已经玩完了或者根本不可能成功了?
[本帖最后由 breadabo 于 2018-2-23 08:49 编辑] - yy208yy208我想问一下,机器人打星际是用摄像头看显示器,图形识别判断对方过来的是什么单位么么?
- raidentimePosted by: Xiaomi MI 5s Plus
暴雪开了接口,AI可以把单位转变为像素点来识别。。。。 - 凌波公子只想说LZ举得例子太不合适。。简单电脑也是人工智能。。
- yy208yy208那是不是理解为将视频输出和音频输出到机器人,机器还是靠视频信号识别技术,判断和识别对方单位种类,攻防,血量以及位置信息呢?
- tales稳 克 狗
狗 克 偷
偷 可 稳
然而在无法侦察的情况下,AI只能选择最稳的打法。。。在这种情况下,AI会被打成智障吧
假设操作层面,AI和人类一个水准,但是AI不会有失误,更精确,所以操作层面胜人类
但是策略方面,人类完爆AI,因为信息不对称,AI无法进行所谓的计算最优策略,那就是瞎子打星际,全防流
开局就亏成马
所以,我觉得,就算这个AI学出来了,也就是一个没有智力的正面猛男
大概也就星际一张飞,星际二枪兵王的水平了。。。 - beterhansAI 和 游戏 内置 AI 的区别
内置 AI 是人类给编写的程序
1. 内置 AI 知道要造什么,要挖什么, 因为人类告诉他了(写的程序)。
2. 内置 AI 知道怎么算赢 因为人类告诉他了(写的程序)。
3. 内置 AI 知道什么情况下 要做出什么反应 因为人类告诉他了(写的程序)。
4. 内置 AI 没有迷雾, 一直是地图全开状态。 它只是 假装不知道而已。 因为 内置AI的目的不是赢比赛 而是陪人玩。
啊法狗需要 在没人告诉它的前提下学习
1. 怎么控制单位移动。
2. 学会挖矿
3. 知道挖矿的意义
4. 知道挖矿可以赚钱
5. 知道赚钱可以买东西
6. 知道什么时候造什么东西
7. 知道早出来的东西怎么用。
你要知道 对于 AI来说 自己在没有提示的前提下 没有人类社会经验下 懂得以上的知识是 多么了不起的事情。
但是懂得以上知识能打赢吗? 不能...... - tales喷了
电脑就是一个固定的套路,星际1的电脑不探路就能来打你,也不管你出什么兵,怎么打,更加
不会根据你的打法有任何改变,永远在执行固定的套路,就是事先编辑好的路子
所以电脑会每个兵种都出一点,到了时间点来A你
星际二稍微高级一点,会有随机几个套路,你到时间派个兵去看一眼就知道是其中哪一个套路了,已经不能说有没有智力了
打个比方,就是一个旋转的齿轮,没有计算,只有固定套路 - raidentime不是,可以直接访问游戏内数据,类似于外挂,被限制的外挂。在AI眼里所有单位都是像素点,没有任何动画效果。
- 田中健一把npc的算法提高变成阿法狗,肯定就赢了。
- surey只比手快那是悍马2000。。。
- ydyy阿尔法狗就是靠TPU上算出来的。围棋你一步我一步很快就能出现胜负结果,就能进行筛选。而星际不拆光对建筑的话,就算矿挖光了也不能分出胜负,所以要花更多的时间在TPU上运算。
阿尔法狗围棋现在不能为人所用,就算再厉害也没用。再说现在野狐上有很多围棋AI也非常强力,估计都超过阿尔法狗了。 - LHO德州扑克一开始人们也是这么想的, 因为消息不对称, 而且人类会用策略会诈, 跟围棋那种全部显示出来的完全不同, 然后结果搜一下就知道了. 顺提德扑的那个AI看制作人访谈,是完全自己跟自己玩玩出来的,不是跟人类训练出来...
还有一个事就是DOTA2的上次TI最后有段,有个dota2AI和乌克兰老司机 1v1 solo表演赛, 可以看看 - superzz_0扯那么多,根本上还是星际变数比围棋多罢了。
- 级替四简单电脑是遵循人类给它设定的方案和行为逻辑进行游戏,而不是自己思考策略。
- raphaelex星际太模糊了
ai的话打dota这种游戏 它的策略选择能够更清晰的让我们看清楚
尤其还有bp选阵容这个环节 比星际强太多了 - 來福時代反了,星际打法在人类看来也就几十种套路,围棋在人类来看是个算不过来的数学游戏,这恰恰是电脑擅长的部分
基于深度学习的ai要打好星际,需要在意识认知学习这个层面上有创新才行
游戏规则是什么,怎样才算赢
什么是策略,迂回包抄诱敌
什么是战术,多兵种协同空投补给
局部地形分析并制订对应打法,观测对手有限信息猜测对手策略并反制
现有ai要理解这些都贼tm难,更不用说玩好
[本帖最后由 來福時代 于 2018-2-23 12:49 编辑] - 雷霆践踏简单电脑还真不是人工智能,只是程序而已,只会遵从程序设定
- 级替四之前不是号称:对阿尔法狗来说,星际比围棋简单得多。
怎么现在纷纷改口径了? - breadabo谁说的这个话你该去问谁。反正我没听过deepmind的人说过类似的话。我也肯定没说过类似的话。
其实我也不记得这个帖子里面的哪个坛友说过这句话。 - jiejieupDOTA 那个 OpenAI 后来被普通玩家战胜了,AI 还无法应对人类新研究出来的招数。不过今年据说有 AI 5v5 项目,值得一看。
- ghsyterry错了,套路简化为的规则只有几十个,但是同一个套路玩1000遍,细节都完全不一样的,AI掌握不了。。
- ghsyterry因为之前,他们都是脑补的AI的终极状态,穷举法。
以为AI可以掌握一切。。 - gnorz理论上算力足够支撑的话,穷举法也是没问题的。
- jie还是时间成长的问题吧,现在才1年,你算它是个小婴儿好了。到了一定阶段后学习速度会超过人类成倍增长。
人类玩星际好,是还学习了星际以外的各种知识。 - zero3rd因为现在才发现google的星际项目和预想的不一样。原以为是类似围棋那样以赢人为目的,结果发现是要AI自己学会动作的意义。
打个比方,前者是算出1+1=2,后者是要证明1+1=2。
更直观点说,前者是让星际菜鸟成为星际达人,后者则是把一个从来没接触到任何电脑也没玩过任何电子游戏的人扔到一个有着大量杂物同时有一台电脑的房间内然后告诉他,他需要在一个叫星际争霸的游戏中击败一个对手。
这个帖子中其实大部分人是完全在鸡同鸭讲,真正的明白人不多。
本帖最后由 zero3rd 于 2018-2-23 18:48 通过手机版编辑 - jie等星际能赢职业选手后,再发展N年,美军单兵每人配个狗,没网络都能变snake、士官长
- ghsyterry这个理论要到100年以后才能实现。
- 企鹅弹吉他发现两个人类的叛徒!
[本帖最后由 企鹅弹吉他 于 2018-2-23 19:13 编辑] - 双面胶你们是不是弄错了ai打星际的目的了? 打星际的ai和围棋一样,并不是告诉ai有什么套路,只是告诉ai怎么算输赢,让ai自己摸索。
实验的最终有2个评判,
1,ai能否打赢人类
2,如果赢,ai如何打赢?
看你们在讨论个啥啊 - 级替四那你们之前理解的打星际是什么?难道是在后台作弊?
- zero3rd我理解的是,如果以赢人为目的,那么大量输入实际战例,对各种操作的意义人工赋予定义,那么让AI形成一个最优模式是很简单的,就像我在前面提到的那样,看上去rts元素繁多复杂似乎有极大可能,但是实际上游戏中每个种族和每张地图都有其极限和限制,策略其实有限得很,剪枝很容易就能减下来。
本帖最后由 zero3rd 于 2018-2-24 01:04 通过手机版编辑 - 级替四我不了解星际,星际有最优模式吗?
- zero3rd会有最优策略,因为星际看上去好像很复杂,但是在种族和地图双项限制下实际上需要考虑的策略很有限。比如说一张图里面是四个矿点的,就不会出现第五个矿点,玩家的初始位置只可能是矿点而不是其他位置,一个矿能产出总量限制了玩家的兵力规模,而人口、科技和建筑的存在又限制了兵力的配置。基本上前中期每个时间点上对手大致在哪个阶段还是比较清楚的。
- 歪霸听说阿法狗练的是星际2,星际2我不十分清楚。但就星际1来说,按你所说策略很有限,那么假设ZVP,Z是出飞龙还是刺蛇,这个如果猜错了,那么即使不输,劣势也很大了。
目前所谓的最优策略,貌似也只有T的3矿猥琐流。其余打法都是互相克制的,没有所谓的最优一说。
其实星际还是很复杂的。第1,就是侦察,不知道阿法狗如何解决这关。第2就是微操和乱数。同样一场战斗,不同的操作可能是决定性的,阿花狗不作弊,微操能到什么程度至今都是和迷。 - zero3rd其实我是不明白微操上阿花狗怎么做叫做作弊。通过接口操作游戏甚至不限定APM本来就是目前AI的先天性限制和先天性优势。
按照这种逻辑,老虎、马之类的动物和人类赛跑的话是不是都得打折两只前腿才算公平?两个星际选手对战,一个APM最快只能上60,另一个APM可以上200,是不是要那个200的限定到60才算fair play?
至于侦查,事实上是最容易出最优解的,大家初期能用于侦察的单位基本上就那么几种,然后地图决定了单位在几个矿点之间的行动路线是有最优解的,剩下就是去操作了,而微操和运营上AI是拥有绝对的优势的。
本帖最后由 zero3rd 于 2018-2-24 02:17 通过手机版编辑 - qd678这就是步子迈的太大,扯到蛋了。
这个目的实现了,就已经算初级的自我意识和认知了。 - qilang当人工智能达到天网级别,结果不是人类可以像wall-e里面那样享受就是像终结者或者黑客帝国那样灭绝,两条路都不好走