[讨论]:回复PSI,说说AI

  • c
    cubesun
    有关“AI发展到最后能独立的思考,意识到他自身的存在”这方面的问题,可以看看《攻壳机动队》剧场版,说真的就是真有这么一天我觉得也没啥不好……另外独立思考并不代表失控,那是技术细节了。
  • n
    nintendoll
    人脑都没研究清楚如何能让AI接近人?早着呢。。。。
  • h
    huya
    实验室与游戏里对AI的研究方向是不同的
    游戏里只要够用就行,与其有时间改善这个还不如把时间放在画面上
  • c
    cubesun
    这并不是成本问题吧?现在的所有游戏的变化都远远少于象棋,更别提围棋,想让格斗游戏AI无敌应该不是问题,你出任何一招,后面的变化都是连咱们都数得过来的,AI要破解轻而易举,只不会那会让玩家骂街摔手柄拆摇杆并且从此不玩格斗游戏。

    游戏规则简单一定程度上也是AI弱的问题,其实咱们追求的是更强大的敌人吗?想要有一个不犯傻的NPC那才是奢望啊!

    咱们在游戏里所体会到的“人性”不见得就是靠AI,比方MGS1代里盯着玫丽一段时间她就脸红,还会让SNAKE别看了。
  • c
    cubesun
    咱俩说的这就是完全一个意思啊,似乎目前的结论是除了等待科幻级别的电脑外,理论上靠软件发展是不可能解决AI问题的。
  • j
    jojops
    为什么不可能,太简单了,格斗游戏里每个角色的动作就那么几个,电脑在探测到你的出招后在0.0001秒里已经想出几十种应对方法,但为了不要让玩家有太大的挫败感,一般根据难度设置选择对应的百份比选择那几十种应对方法中的一种,难度越高应对方法越准确和狠毒,难度低则可能是错误的应对,因此在格斗领域,只要设计成电脑只选择最准确有效的应对方法,人是不可能赢的。(因为人脑在那么短的时间不能不犯错)。
  • a
    alias
    目前游戏AI能加入模糊搜索就算不错了
  • I
    Izual.izm
    战棋游戏的AI满重要的
    FFTA电脑行动经常思考好几秒, 还不时有托慢现象.
    同平台的火纹几乎感觉不到思考时间, 相当流畅
    程序员功力问题?
  • j
    joseph2
    讨论游戏ai,目前就玩友来说只能到评价游戏给人的表象感觉足矣了。
    同时让两个ai高手出现在这一贴太难了,所以基本没有讨论其技术层面问题的可能性。
    因此目前为止,看到的只是些不懂装懂的言论,“唬唬”而有生气啊~
  • c
    cubesun
    以sf3.3和SC系列来说,只要制作人愿意,完全可以把AI调整成所有招式都能完美BLOCK和弹挡,连搜索都不用,请问这怎么玩…………
  • 良辰美景
    似乎可分为两种AI,被动式AI,主动式AI(也叫学习型AI或者自律型AI),被动式AI主要表现为对外界行为按照早已编好的程式进行类比较、判断,再执行已设定好应对方式中最贴近的一种,比如游戏类,就我看来所有的游戏AI都是属于补动式AI。而主动AI则拥有学习功能,通过外界行为的不断变化而学习进而让本身系统更加完善。这种东西基本上只能在科幻或者动漫领域才可能看见,岂今为止的人类科技还无法做出学习型AI,人类连自身大脑都未完全研究透,但这并不代表未研究透人类大脑不能去研究主动式AI,只是科技能力未够。
  • c
    cubesun
    神经网络介绍―利用反向传播算法的模式学习
    [ 作者:Andrew Blais, Ph.D. 转贴自:developerWorks 点击数:24452 更新时间:2004-4-15 文章录入:admin ]

    神经网络也许是计算机计算的将来,一个了解它的好方法是用一个它可以解决的难题来说明。假设给出 500 个字符的代码段,您知道它们是 C、C++、Java 或者 Python。现在构造一个程序,来识别编写这段代码的语言。一种解决方案是构造一个能够学习识别这些语言的神经网络。这篇文章讨论了神经网络的基本功能以及构造神经网络的方法,这样就可以在编码时应用它们了。
    根据一个简化的统计,人脑由百亿条神经组成 ― 每条神经平均连结到其它几千条神经。通过这种连结方式,神经可以收发不同数量的能量。神经的一个非常重要的功能是它们对能量的接受并不是立即作出响应,而是将它们累加起来,当这个累加的总和达到某个临界阈值时,它们将它们自己的那部分能量发送给其它的神经。大脑通过调节这些连结的数目和强度进行学习。尽管这是个生物行为的简化描述。但同样可以充分有力地被看作是神经网络的模型。
    阈值逻辑单元(Threshold Logic Unit,TLU)
    理解神经网络的第一步是从对抽象生物神经开始,并把重点放在阈值逻辑单元(TLU)这一特征上。一个 TLU 是一个对象,它可以输入一组加权系数的量,对它们进行求和,如果这个和达到或者超过了某个阈值,输出一个量。让我们用符号标注这些功能,首先,有输入值以及它们的权系数:X1, X2, ..., Xn 和 W1, W2, ..., Wn。接着是求和计算出的 Xi*Wi ,产生了激发层 a,换一种方法表示:
    a = (X1 * W1)+(X2 * W2)+...+(Xi * Wi)+...+ (Xn * Wn)
    阈值称为 theta。最后,输出结果 y。当 a >=theta 时 y=1,反之 y=0。请注意输出可以是连续的,因为它也可以由一个 squash 函数 s(或 sigma)判定,该函数的自变量是 a,函数值在 0 和 1 之间,y=s(a)。
    图 1. 阈值逻辑单元,带有 sigma 函数(顶部)和 cutoff 函数(底部)


    以下省略,我在看得真的是中文么?我果然是科技盲…………………………………………………………