香港大学计算机系三年级学生张某利用开源AI工具DeepSwap,批量生成同窗女生不雅照案件近日浮出水面。校方通报显示,该生于2024年3月至6月间,通过社交平台收集700余张女生正脸照片,使用Stable Diffusion模型合成淫秽图像并在境外暗网兜售,非法获利逾12万港元。事件曝光后,香港个人资料私隐专员公署已介入调查,这起全国高校首例大规模AI换脸侵权案正引发对数字时代性暴力的全面审视。
技术溯源报告揭露了令人毛骨悚然的作案细节。张某不仅建立包含21名女同学的“素材库”,更通过课堂合影、社团活动等公开场景获取多角度人脸数据。其制作的合成照可实现眨眼、微表情等动态效果,部分图片甚至篡改校服添加港大标识。网络安全专家黄志恒指出:“嫌犯使用LoRA微调技术将伪造精度提升至96.7%,普通鉴伪工具已难以识别”。
法律界人士强调此案突破多重红线。根据香港《刑事罪行条例》第200章,制作虚假不雅影像并传播已构成“发布淫亵物品罪”,最高可判监禁3年;而依据2023年新修订的《个人资料(隐私)条例》,非法处理生物特征数据更面临百万港元罚款。港大校务委员会紧急召开特别会议,涉事学生已被停学并面临刑事指控。
事件折射出高校AI伦理教育的缺失。涉案男生成绩优异,曾获校人工智能创新大赛亚军,却在课程论文中写下“技术无罪论”。港大校长张翔宣布将增设“数字伦理”必修课,并组建AI滥用监测中心。这起笼罩在象牙塔上的阴影,正在催生一场关于科技边界与人性底线的深刻拷问——当造谣成本降至一键生成,我们该如何守护屏幕后的真实人格?