3月9日,IT之家报道了一项关于人工智能生成内容的新研究,该研究发表在《科学传播期刊》上,指出社交媒体上人工智能生成的科学相关内容可能对公众舆论和决策产生影响。研究警告称,尽管多个司法辖区和平台正在推动披露人工智能生成内容的透明度规定,但这样的标注可能会降低真实科学信息的可信度,同时提升虚假信息的可信度。
研究由北京中国社会科学院大学的博士研究生林腾和硕士研究生张逸青进行,他们通过Credamo平台在线招募了433名参与者,制作了四类社交媒体帖子:带/不带人工智能标注的真实信息,以及带/不带人工智能标注的虚假信息。研究发现,同样的人工智能标注会根据信息真伪产生截然相反的可信度影响,即降低真实信息的可信度,却提升虚假信息的可信度,这种现象被称为“真伪交叉效应”。
研究还发现,个体对人工智能的态度会影响他们对标注为人工智能生成的信息的信任度。对人工智能持负面看法的参与者在看到标注为人工智能生成的真实信息时,会更强烈地降低对其信任度。然而,即便在持负面态度的人群中,虚假信息获得的可信度提升也并未完全消失,只是部分减弱,且这种减弱与话题相关。
林腾和张逸青提出了若干建议,包括采用双重标注方式,除了标明内容由人工智能生成外,还应包含“信息未经独立核实”的声明或增加风险提示。他们还建议采用分级或分类标注体系,根据不同类型和风险等级的科学信息采用不同程度的披露标注。这些建议旨在帮助实施更有效的监管措施,以应对人工智能生成内容可能带来的意想不到的后果。

来源:一电快讯
返回第一电动网首页 >
以上内容由AI创作,如有问题请联系admin#d1ev.com(#替换成@)沟通,AI创作内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网或AI创作,如有侵权请联系邮件删除。