近日,由团队常晋源教授、博士后杨麟与香港科技大学博士生查梦月以及伊利诺伊大学芝加哥分校周文心教授合作完成的论文“Adapting to noise tails in private linear regression”被统计学国际顶级学术期刊《Journal of the American Statistical Association》正式接收。
内容简介
针对统计分析中个体隐私保护的现实需求,本文在差分隐私框架下提出了一种针对线性回归模型的稳健估计方法,能够在保护个体数据隐私的同时,有效应对异常值和重尾误差带来的挑战。本文通过Huber损失中的可调稳健性参数系统刻画了“估计偏差”、“隐私保护”与“稳健性”三者之间的权衡关系。针对低维和高维稀疏模型,本文分别设计了带噪声的截断梯度下降算法和迭代硬阈值算法。在次高斯误差条件下,本文所提方法能达到几乎最优的收敛速度,并能放宽以往研究中的若干假设。对于更具挑战性的重尾误差情形,本文进一步给出了估计的非渐近误差上界,并揭示了该上界如何受到矩条件阶数、隐私参数、样本量以及内在维度的影响。
作者简介
常晋源,西南财经大学光华首席教授、数据科学与商业智能联合实验室执行主任、统计交叉创新研究院执行院长。主要从事复杂数据分析相关的研究。
杨麟,西南财经大学数据科学与商业智能联合实验室博士后。主要从事高维数据分析和函数型数据分析等领域的研究。
查梦月,香港科技大学数学系博士生,主要从事大语言模型、智能体攻防和高维统计等领域的研究。
周文心,伊利诺伊大学芝加哥分校商学院副教授。主要从事高维统计与稳健推断、非参数学习与现代机器学习方法、深度学习与神经网络理论,以及分位数回归与期望短缺回归等领域的研究。



