体现的情报可以对自己的行为负责吗?
体现的聪明人格的身份和责任的责任引起了争议,人们应负责。将来,敬业的智能产业正在迅速发展,重点是如何与机械和人工智能的发展一起包括理解,行动和环境互动,从而创造了一个更灵活,更自主的智能机构。因此,从经济和社会管理的角度来看,体现的情报具有特定的身体和智力时,它会产生自己的个性,并且可以假定自我责任吗?身体中宝石的双重定义是指代理(机器人或程序)通过与物理世界或模拟环境互动来识别和应用知识的能力。与整体人工智能相比,出现的智能之间最重要的差异在于“体现”。 “刺绣”有两个卑鄙s。第一个含义是拥有一个“身体”,并使用身体看环境。这种智能不仅取决于传统的计算来源,而且还强调了物理性经历的重要性,即代理人的身体与他所生活的环境之间的相互作用对于学习和发展复杂的行为至关重要,并绘制一种更现实,更换的人工艺术形象。以前,人工智能强调了数据推出,计算过程和输出结果。富有智力的智能不再等待饲养数据,而是用来积极地感受周围环境,独立收集数据,并借助身体的不同部位响应灵活性。在自然的生物学世界中,通过他们的身体可以看到具有智慧的生物,例如用耳朵聆听声音,用眼睛看东西,并在鼻子上闻起来。体现的智力NCE还模仿理解身体的过程。它看起来不再是冷钢板,而是各种密集的传感器,这些传感器从不同方面从不同方面获取各种信息,形成不同的判断并从事多任务工作。 “体现身体”的第二个定义是具有“身体形状”,并使用不同形状的身体适应大气。换句话说,体现的智力不仅具有身体,而且具有各种身体形状,并且身体形状具有大量的智力学习和发展和场景的实现。体现智力的主要概念是“身体是智力的一部分”,这意味着代理研究的理解和过程的行为,能力和过程与其外观密切相关。实际上,我们更容易接触机器人臂和人形机器人。例如,带有武器和抓地力设备的机器人需要了解如何使用这些四肢完成特定的任务,例如选择对象或执行组装工作。这个过程不仅涵盖了对其对象和环境的深刻理解,而且还需要通过连续的实用操作来调整和优化其动作技术。特别教导说,机器人身体的形状不必模仿人类,但是动物和其他生物也可以模仿,尤其是仿生机器人。例如,仿生的鸟类机器人可以通过测试不同的姿势飞行来学习如何在空中更牢固有效地飞行;仿生仿生仿生的仿生机器人可以通过秋千和触觉反馈将柔韧性转移到复杂的土地上,避免障碍物。从体现智力的趋势的发展来看,人工智能取得了基本的跳跃,不仅限于仅仅增强人类的感官,也不是一种工具,它是人类认可和行为的辅助工具,而是逐渐建立了自己的联合国的AHA这种认识论在中心和占主导地位的认知活动中的边缘和辅助作用从边缘和辅助作用跳跃,这种认识论产生了非人性化认识论的重要分支。简而言之,具体的智力强调,人工智能的水平具有强烈的身体和身体形状。身体不是等待加载算法的机器,它应该直接参与算法的演变。该方法将模仿研究天然生物的方法,并强调技能和积累经验的重要性。珠宝智能的人格工具和误解是一种相对先进的智能,不仅可以看到世界并加快人体的教育,而且还可以通过为其设计不同的身体形状来加快Theupad应用程序的速度。这不是一个很好的工具,它可以极大地提高人类的工作效率,甚至轻松从事某些工作,这不是一个秘密人们无能或威胁人类的生命和健康。但是,当我们讨论明智的身体时,尤其是当看到现实的人形机器人时,我们不禁要问:它们是人类,聪明和理性的,他们是否具有主观性或法律性格,并且可以对自己的错误负责吗?在这个问题上,社会所有部门都有极大的争议。一方面,即使有智力和身体,类人动物机器人仍然是机器。与所有信息技术一样,人工智能的特征是“缓解”和“简化”是需要按顺序执行的一系列操作中的任务或问题的分解。“近距离”是“缓解”的必要添加,含义为“隔离”和“隔离盒”,在运行机器上属于“隔离机器”。因此,正如我们认为机器没有特征的那样,具体智力是艰难的无论多么聪明,都会发展一个个性。另一方面,人工智能可以使非理性的公义与人类现实分开。如果被允许独立行动,则可能违反人的观点和价值观。本质上,人工智能和算法试图在收入数据集(例如性别,年龄,社交网络等)和输出数据集(例如消费倾向,如果获得面试资格,犯罪可能性等)之间建立最佳相关性。为了实现这一目标,它重复了删除变量及其权重的选择。但是,这些变量和权重可能不能反映政策和法律形式的原则,而是误导政策和法律,并可能导致权力滥用。实际上,智力的宝石主要发现了数据之间的关系,而不是现实世界,或与所提供的正义水平的关系的原因。这起源于这里的分析和判断可以从真理中严重删除。例如,关于是否实施犯罪的问题,算法提供的最大变量可能是一个人的皮肤的颜色,外观根据他的皮肤的颜色和外观分为不同的水平。如果体现的智力很受欢迎,它可以创造一个与人类世界不兼容的平行世界,从而造成混乱。因此,大多数人坚持认为体现的代理仍然是工具,没有人格特征。负责的主题仍然是人类。对行为心理学的回顾是,人们通常倾向于遵循默认选择而不是提出默认选择。体现的智能是一个特别有吸引力的默认选择,因为它们通常以“不知道”的形式出现,这是具有科学客观性和合理性的行为。但是,体现的智力并不完美,不可避免地会有我是偏离甚至是系统的谬论。但是问题是,当出现问题时,我们应该对谁负责?一方面,具体的情报是独立责任。为了提高良好状态的具体智能水平,负责任的算法必须在深入了解其操作的影响方面,仔细地理解所涉及的道德困境,并采取措施对所有涉及的参与者负责,以确保算法的运作可以尊重其他人的道德义务和传统。但是如今,由于我们很难相信机器可以对自己负责,我们也不能期望智力能够实现自我责任。当误认为体现的情报是一种惩罚时,我们可以对尸体进行动力或废除尸体,例如监狱或犯罪分子的死刑。但是,此类措施可能仍无法实现罚款的预期影响。作为工具,EMBODIED情报可以通过其用于程序,歧视和平等保护,隐私和透明度以及权力滥用等问题等问题来批评。例如,在威斯康星州诉Loomis案中,被告质疑Compas系统的风险标记公平性,认为该制度依赖该判决使他丧失了公正审判的权利。 Loomis指出,由于Compas的源代码是所有和模糊的,并且该系统可能会偏向男性,因此其风险评估的结果可能不准确。另一方面,由于使用具体的情报,人们无法“责备”。体现情报的使用已将人类判断力从决策过程转移到核心,转变为处理异议和投诉的阶段。自然,社会政策的重点也已经转移到了事故后的责任问题上。目前,社会问题是事故的最争议由自动驾驶(或更高级别的辅助驾驶)引起。当前的社会系统和法律规定仍然要求人们互相保护AI自动化过程(或远),在紧急情况发生时及时替换AI,并在发生事故时对人负责。换句话说,人们不应使用AI自动化的特征来避免应带来事故的职责。尤其重要的是要指出,在某些体现的代理商中发生的事故是由于对人的恶意使用而引起的,目前,后果应由人们承担。体现的智能用户后面的两个方面并不总是很清楚,并且护理和控制之间的两个动机没有分开。我们应该关注用户的主动性和自发性。例如,已经发现一些上市公司可以喂养AI系统的假AIANG“信息”系统欺骗答案并使用这些答案来误导投资者,以促进公司的积极绩效并实现股票市场操纵的目的。实际上,AI获得的评论的结果是由一个人故意喂养的,而不是目的和可信的。有些人使用AI技术与版权作品进行恶意交谈,并试图涵盖窃和盗版的事实。面对这些事故,人们可能会试图将具体的情报作为避免责任的盾牌,这是未来社会治理的重点。 Ang Pathe地区对于行政和司法机构是正确的,责任是不可避免的。在整个历史上,行政机构和司法机构等公共组织不能保留一般政策的背后,并声称他们“仅执行政策”。输入AI期,无论数据很容易获得,都不应该排除验证是否验证的责任数据确实反映了实际情况。换句话说,如果司法机构使用AI工具来做出虚假判断,那么它不能仅仅责怪AI系统,只要让AI系统使用的是“显然不公平的误解”将是公平的,并强迫所有各方接受相应的结果。