机器人三大原则的道德标准如下:,下面我们就来说一说关于什么是机器人三大原则的道德标准是什么?我们一起去了解并探讨一下这个问题吧!
什么是机器人三大原则的道德标准是什么
机器人三大原则的道德标准如下:
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。
机器人是自动执行工作的机器装置。它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。它的任务是协助或取代人类工作的工作,例如生产业、建筑业,或是危险的工作。