肖芄:技术的运用是把双刃剑,用之为善可以造福社会,不当滥用则会造成社会风险和损害。
当前,AI技术已经深度融入诸多领域。AI技术本身是中立无害的,技术本身也不应当直接受到法律的负面评价,但技术中立并不意味着价值中立,特别是开发、应用者的价值中立,更不等于AI的参与者不应当受到来自法律的规制、道德伦理的约束。对于AI技术在一些领域的滥用风险,需要提高警惕。
王立梅:以医疗领域为例,我认为,应着眼平衡技术创新与风险防控,推动人工智能医疗应用的规范化发展,确保其合法、安全且符合社会伦理。
规范人工智能在医疗场景的应用,应遵循以下规则:一是,应重申《中华人民共和国医师法》的刚性约束,明确人工智能的工具属性和辅助地位,医师仍是最终决策的责任主体,同时建立清晰的追责机制。二是,有关垂类模型需具备可解释性,确保决策透明,并通过伦理审查,尊重患者知情同意权。三是,在技术层面,应制定准入标准,对智能应用进行动态监管,确保其安全性和有效性,并禁止人工智能在高风险场景中自主决策。四是,人工智能使用的医疗数据必须符合有关法律法规,严格保护患者隐私,确保数据安全。
崔聪聪:关于人工智能技术的“双刃剑”问题,需要辩证看待。人工智能作为前沿技术,虽在工作生活服务等方面价值显著,但其应用边界与风险管控不可忽视。
第一,人工智能在医疗、司法、金融等高风险领域的深度介入,可能引发数据隐私泄露、算法歧视、责任认定模糊等问题。当前技术尚未完全解决可解释性与决策透明性难题,需通过完善立法明确技术应用边界,建立分级分类监管体系,防止技术滥用损害公众权益。
第二,从技术研发到场景落地,应建立伦理审查、安全评估与动态监测机制。例如,在涉及人身健康、公共安全等重点领域,需设置“人工介入”强制条款,确保关键决策始终处于可控范围。
第三,应建立包容审慎的人工智能技术协同治理生态。通过立法、技术标准制定、行业自律公约、公众参与监督等方式,形成发展与规范并重的长效机制,营造良好的人工智能研发与落地环境。
涂崇禹:人工智能技术的迅猛发展,确实为生产生活带来了前所未有的便利,但其潜在风险和法律伦理挑战也日益凸显。尤其是在医疗、司法、金融、公共安全等涉及人类生命健康、社会公平和核心利益的领域,审慎对待AI的应用是人类社会可持续发展的重要前提,应在技术赋能与风险防控之间寻求动态平衡。如在自动驾驶、医疗诊断等领域,AI的决策逻辑往往缺乏透明性(即“算法黑箱”),一旦发生事故或错误,责任主体难以界定。现有法律体系尚未形成明确规则,可能导致维权困难。人脸识别、个性化推荐等技术依赖海量数据,但数据采集、存储和使用过程中存在侵权风险。