当地时间9月11日,欧洲东南部国家阿尔巴尼亚新上任总理埃迪·拉马(Edi Rama)宣布新内阁名单,其中一个名为“迪埃拉”(Diella,在阿尔巴尼亚语中意为“太阳”)的AI虚拟人被任命为公共采购部长。阿尔巴尼亚成为世界上第一个任命非实体AI担任政府部长的国家。

“迪埃拉”形象照。图片来源:etnownews
阿尔巴尼亚为什么这么做?

图片来源:news.sky
提升政府形象。“迪埃拉”有其独特的外形设计和文化标识性,既有民族性又有亲和力,这让公众能够直接“看到”,并与之对话、互动。这种带有视觉与听觉互动的设计,使服务体验更加亲切与人性化。
提高政务效率。“迪埃拉”最初作为虚拟助手时的成功案例已证明其具备处理标准化行政事务的能力。在被提拔为公共采购部长之后,其流程中更多环节也可以通过同样的自动化与系统化方式处理,通过流程自动化与标准化,招标公告发布、标书接收、资格预审、评标、合同签订等环节可加速完成。
减少人为干预。“迪埃拉”的决策将基于明确标准与规则,以客观标准评估投标,以减少人为偏好与利益交换,从而有助于削弱权力寻租、贿赂或暗箱操作的空间。
倒逼政府革新。拉马指出,将 “迪埃拉”纳入内阁可以对其他部长及国家机关构成压力,促使他们以新的方式思考与运作。这种来自制度与政治层面的“压力机制”可能促进整体政府行政效率与纪律性的提升。换言之,AI 部长不仅是一个工具,也可能成为推动政府系统变革与革新的催化剂。

图片来源:uk.monyens
AI部长面临哪些难题挑战?
任命“AI部长”虽有创新,但也带来四方面深层次难题。如果没有先进科学的制度保障与技术对策妥善解决难题,阿尔巴尼亚可能被技术裹挟进另一个深渊。
难题1:数据和算法偏见让招投标更不公平?政务AI对相关领域的训练数据公平性与代表性要求极高。“迪埃拉”所依赖的数据覆盖公共采购全过程,一旦这些数据出现系统性缺漏或标注偏差,就极可能导致模型输出在判定投标人资格或授标过程中的偏见。这种偏见可能导致中小企业、边远地区企业、或相对弱势的企业被系统性低估或排除,造成AI伦理问题。此外,若某利益集团能影响这些训练数据,模型可能被操纵,评标标准被“调校”以优先倾斜某些既得利益方。
难题2:数据和隐私的安全谁来守护?公共采购流程中涉及的数据量庞大而敏感,可能包括但不限于投标企业的财务报表、盈利能力、资产负债、关联方关系、合同条款、预算分配、工程质量监测报告、履约审计数据等。政府若未能有效保护这些数据,则可能丧失公众信任。若“迪埃拉”遭到网络攻击或对抗性数据攻击,信息被非法访问或泄露,会对政府的数据安全和企业的商业利益造成严重威胁。
难题3:出错之后谁来负责?如果“迪埃拉”做出错误决定,比如错误拒标、误判资格、合同纠纷等,其责任归属难以明确。AI算法黑箱导致透明度不足,投标人无法知道被拒原因,缺乏申诉或复审机制。阿尔巴尼亚政府关于“AI 担任部长”的决策是否具有法律效力仍在讨论中。民主党议会党团领袖加兹孟·巴尔迪(Gazmend Bardhi)表示,“迪埃拉”被赋予部长身份违宪,总理的任命并不能成为阿尔巴尼亚国家法律行为。
难题4:AI能否应对创新情景下的复杂决策?AI 在很多场合表现出色,但由于技术限制,其对非常规或边缘情况的判断往往有限。这包括创新型投标方案、紧急情况以及那些需要人类经验、直觉判断的情景。AI若仅依据训练数据作为评估标准来作答,可能会忽视或低估这些非常规因素的价值与风险。

图片来源:oneword
政务AI究竟该如何落地?
“迪埃拉”这类AI公职人员,要真正具备实践能力,提高工作效率,不仅仅需要完善的AI模型,更依赖于制度、技术与法律等方面的坚实支撑。
第一,需要保证模型训练初始数据的质量与完整。政府必须确立统一且严格的数据采集标准,例如“迪埃拉”需要将整个公共采购链条中所有相关数据纳入体系,包括历史中标结果、公司信誉与业绩、财政预算、合同履行情况、审计与投诉记录等。同时应设立专门的数据清洗与验证机制,对已有数据进行偏差审查和纠正,去除或标注不可信或异常的记录,定期开展“公平性测评”,即在模型训练阶段就对不同地域、大中小企业、初创公司等各类投标群体在数据集中是否被公平对待进行系统分析。
第二,保证审核与监督有制度、可回溯、受控制。政府内需要设立人工复核机制,特别是在重大授标或拒标决定中,引入有法定权限和专业知识的人工复核机制必不可少,确保机器判断之外也有人工保障。此外,政府应当对AI在公共采购中的角色做出明确界定,需要明确责任主体,即在模型出错、决策有争议时,模型设计者、运行方、监督方、政府机构等需要承担何种责任。这也保证了被拒标方或对授标结果有疑虑的投标者,有明确的申诉机制和法律路径,责任相关方也可以依据法律制度处理申诉。
第三,保障安全基础设施与技术支持。AI系统运行依赖稳固的硬件、软件、网络与人员支持,国家需投入计算资源,确保高性能的计算环境和云技术设施,确保在处理大数据和复杂评估模型时有足够算力与响应速度。同时部署网络安全、加密权限管理等机制以防止数据泄露或对抗性攻击。
第四,提升人类与AI协同办公能力。政府需对相关部门公职人员、法律监督人员、数据科学专家等开展培训,使其充分理解AI的功用与局限,准确识别算法偏见、安全与隐私问题,了解如何审查与监督AI决策,做好AI决策结果的“守门员”。此外,还可以建立跨学科团队,技术人员、法律人员、伦理学家、公共政策专家共同参与AI系统的设计、部署与监督,以保证技术标准、规章制度、法律、伦理相协调。

图片来源:intelligentcio
·END·
作者:邵正棋
编辑:赵佳文 马浩然
编撰:同济大学国家创新发展研究院
监制:同济大学政治与国际关系学院、同济大学外国语学院
监审:同济大学网络空间国际治理研究基地