作者:中联科创特约嘉宾尹智
我们能不能不要骗自己,算法问题有相当一部分就是社会问题 —— 我不同意这篇作者的"不同意"。首先技术是不是中立取决于 对"技术"的定义,只能识别有色族裔的门禁系统当然不中立,只针对特定目标的无人机武器当然不中立,而从矿石中提纯金属的技术有什么倾向?
这个问题本身就很无聊,更有意义的问题是"我们如何防止技术被用于有不符合法律和伦理的目的",比如下图所说的,社会信用系统的算法歧视问题。这是人工智能技术的责任吗?我前一阵有篇东西分析过,一个人/智能体,能够承担责任的前提,是这个being必须有自我意识,在人工智能有自我意识以前,我们去指责人工智能技术,这是不是也是一种借口?
要改进算法歧视问题,或者我们去修改算法逻辑,或者我们去更新用于算法训练的数据,这都是"人"的问题,而更底层根本的原因,可能实际就不存在"无偏见"的数据,比如google里搜索"黑人……",出来的负面提示居多,谷歌特意选择了黑人的负面提示吗?难道我们希望谷歌来捏造数据来训练搜索引擎吗?
这个社会有歧视问题,数据实际反应了这些问题,用这些数据训练出来的算法只是真实反应了这些数据代表的特征,这是技术的问题,还是社会的问题?如果社会问题不得到改善,难道做算法的人要捏造"好"数据来训练AI吗?难道做算法的人要把头埋在沙子里,只选择"政治正确"的数据来训练AI吗?当然,那种有全面客观数据不用,别有用心地选择数据集的人,除外。 —— 仅代表尹智个人观点 Ken's personal view only