人机对齐:如何让人工智能学习人类价值观
来源: 发表于:2024年11月01日 文章点击数:49 【打印】
【责任者】(美)布莱恩·克里斯汀(Brian Christian) 著;【出版社】湖南科学技术出版社;【出版年份】2023;【标准编码】978-7-5710-2173-3
如今的“机器学习”系统已具备非凡能力,能够在各种场合代替我们看和听,并代表我们做决定。但是警钟已经敲响。随着机器学习飞速发展,人们的担忧也在与日俱增。如果我们训练的人工智能(AI)做的事情与我们真正的目的不符,就会引发潜在的风险和伦理问题。研究人员称之为对齐问题(the alignment problem)。对齐问题是一面镜子,将人类自身的偏见和盲点暴露出来,让我们看清自己从未阐明的假设和经常自相矛盾的目标。这是一部精彩纷呈的跨学科史诗,不仅审视了人类的科技,也审视了人类的文化,时而让人沮丧,时而又柳暗花明。
作者用生动的笔调,清晰阐释了AI与我们息息相关的问题。在书中,我们将认识第一批积极应对对齐问题的学者,了解他们为了避免AI发展的局面失控,付出的卓绝努力和雄心勃勃的计划。克里斯汀不仅精练地描绘了机器学习的发展史,并且亲自深入科研一线同科学家对话,准确呈现了机器学习最前沿的进展。读者可以清晰认识到,对齐问题研究的成败,将对人类的未来产生决定性影响。