三分钟,带你远离人工智能四大风险

转载
502 天前
3926
AI之势

文章转载来源:AI之势

原创:王呜

来源:大模型之家

图片来源:由无界 AI工具生成

人工智能就像一张加速卡,让我们的生活节奏变得更快,更便利。无论是手机上的语音助手,还是在路上驶过的自动驾驶汽车,AI就像是一只隐形的手,默默地改变着我们的生活。然而,在享受这种便利的同时,人工智能所带来的安全隐患也成为了人们所担忧的重点问题。

今天,大模型之家AI安全小课堂正式开课!带你走进AI的世界,一起防范AI带来的安全隐患。


严防数据隐私泄露


人工智能系统通常需要大量的数据来进行训练和预测。这些数据可能包括个人信息,比如我们的在线购物习惯,社交媒体互动,甚至健康信息。如果这些信息被不当地收集,存储或使用,就可能会侵犯我们的隐私,甚至可能会被用于恶意目的。

近期,很多大型公司如American Airlines、Reddit等,因数据泄露事件而备受瞩目。据了解仅2023年6月,全球便出现了上百起影响恶劣的数据隐私泄露案件。

2023年6月27日,美国航空公司的数据被黑客盗取,影响了大约8000名申请美国航空和西南航空职位的飞行员。

2023年6月21日,UPS加拿大的数据可能在一次数据泄露中被暴露。

2023年6月21日,Mondelez的雇员数据在其法律服务提供商Bryan Cave发生的数据泄露中被泄露。

2023年6月19日,黑客声称从Reddit的服务器中窃取了80GB的机密数据,并威胁要泄露这些数据。

简单来说数据隐私泄露会造成对人身财产的威胁;隐私权的侵犯;人格尊严的损害甚至是个人思想的裹挟。

大模型之家认为,为防止此类问题发生,用户应该定期更新密码,尽可能使用复杂且独特的密码。同时,尽量避免在不安全的网络环境下输入个人信息,例如公共WIFI。对于一些可能收集用户数据的应用,如社交媒体、购物网站等,用户应了解并设置他们的隐私选项,以控制自己的信息被谁看到。


警惕算法偏见


AI算法偏见是由于算法开发过程中的偏见假设或训练数据中的偏见造成的。可能导致算法对某些个人或群体的决策不公平或歧视。

AI算法偏见的来源有两种,一是认知偏见,这些是无意识的思维错误,会影响个人的判断和决定。这些偏见产生于大脑试图简化处理关于世界的信息。认知偏见可能通过以下两种方式渗入机器学习算法中,包括设计者在不知情的情况下将其引入模型中和训练数据集本身带有这些偏见。二是缺少完整的数据,如果数据不完整,那么它可能不具有代表性,也因此它可能具有偏见。例如,大多数心理学研究包括本科生的结果,而本科生是一个特定的群体,并不代表整个人口。

Amazon是一家电子商务公司,曾经开发了一个基于AI的招聘工具,用于筛选求职者的简历并给出评分。然而,该工具显示出对女性求职者的偏见,因为它使用了过去10年男性占主导地位的历史数据来训练模型。

大模型之家呼吁使用者应当关注AI系统的决策过程,如果发现任何可能的偏见或歧视,应向相关机构或公司报告。同时,使用者可以选择支持那些公开承诺遵守公平和非歧视原则的人工智能企业。


防范AI诈骗


AI诈骗是利用人工智能技术,如AI换脸、AI拟声、AI对话等,模仿他人的面貌、声音或语言,进行欺骗或诈骗的行为。AI诈骗的手法多样,可能涉及视频通话、微信语音、直播带货等场景,给公众的信息安全和财产安全带来威胁。

2023年5月,福州市某科技公司法人代表郭先生,在与好友视频聊天时,被对方以借用账户转账为由,10分钟内骗走了430万元。事后才发现,视频中的好友其实是骗子利用AI换脸和拟声技术伪造的。

2022年2月,浙江温州市公安局瓯海分局接到报案称,一名陈先生被“好友”诈骗了近5万元。骗子利用陈先生好友在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任。

对此大模型之家总结了一些方法,用为防范AI诈骗:

不安装陌生应用:一些不法分子会利用一些看似正常的应用,如换脸软件、美颜软件等,获取用户的照片、视频或声音,然后利用AI技术进行合成或编辑,制作虚假内容。

减少自己照片与音视频的曝光度:一些不法分子会从社交媒体、网络平台等渠道收集用户的照片、视频或声音,然后利用AI技术进行合成或编辑,制作虚假内容。

询问共同知晓的信息:要注意观察对方的面部表情、声音特征、说话方式等是否与平时一致,同时可以询问一些只有双方知道的信息,如共同经历、生日日期等,以确认对方是否为本人。

真信息中掺假信息:如果收到来自熟人或陌生人的视频通话或语音消息,要注意观察对方是否能及时回应自己的问题或反馈,同时可以在真实信息中掺入一些虚假信息,如错误的姓名、地址、银行卡号等,看对方是否能发现错误或提出质疑。

让对方多与你沟通:如果收到来自熟人或陌生人的视频通话或语音消息,要注意观察对方是否能与自己进行流畅、连贯、逻辑性强的沟通,同时可以让对方多说一些话或多做一些动作,看对方是否能满足自己的要求或表现出异常。

通过多重验证、保护信息和相互提示的方式避免上当:如果收到转账请求或汇款指示,要提高警惕,通过电话、视频等方式确认对方是否为本人。同时要保护好自己的个人信息和隐私,不轻信任何涉及个人信息和隐私的链接、二维码等。


慎用套壳GPT,别让“自己人”坑了


除了以语音视频要求转账形式的诈骗形式,大模型之家也注意到目前国内市场中也有很多“套壳GPT”出现,依靠第三方平台提供的GPT语言模型API,开发出自己的聊天机器人或其他应用。

很多学者也表示,虽然我国每年的科研投入已经走在了世界前列,但对于基础学科的研究一直不被重点关注,反倒是一些“二次加工”的工作做的更好也更受欢迎。

对GPT语言模型进行套壳并收费,其实质可能对使用者带来一些潜在风险。套壳GPT会误导人们正在购买一种提供了额外价值或增强功能的产品。然而,实际上,这些套壳版本可能只是将原有的GPT模型进行了轻微的修改或个性化定制。如果使用者对GPT模型的工作原理和能力不了解,他们可能会基于这种误解作出购买决策,以为他们能获得更多的价值或优势,但实际上可能并非如此。

其次,套壳GPT可能会给使用者带来很多风险。例如,一些套壳版本可能没有遵循良好的隐私和安全性实践,这可能会导致使用者的个人信息被滥用或泄露。由于GPT模型需要处理大量的用户输入,如果这些输入没有得到适当的保护,那么使用者可能会面临严重的隐私风险。同时,如果使用者被误导购买了套壳版本,而这个版本并没有提供额外的价值,那么使用者可能会付出不必要的费用。

大模型之家认为,使用者需要对套壳GPT有充分的理解,才能做出明智的决策。然而,大部分的套壳GPT只是利用用户的好奇心来获取利润。

在解决人工智能产生的风险问题的过程中,教育和意识的提高是关键。我们需要教育公众理解AI的工作原理,认识到AI可能带来的风险,以及如何做出安全和负责任的决策。同时,我们也需要鼓励和推动AI的透明度和可解释性,使普通用户能够理解AI的决策过程,以便他们能够做出知情的决定。

大模型之家呼吁,政策制定者,研究学者和企业共同努力来解决上述问题。例如,政府需要制定适当的法律和规定,以保护用户的隐私和安全。研究学者需要发展新的方法和技术,来提高AI的安全性和可靠性。企业需要负责他们的产品,确保他们的AI系统不会对用户造成危害。

同时,我们需要建立一个多方参与的AI治理框架,包括政策制定者,研究学者、企业以及普通用户。只有这样,我们才能确保AI的发展能够在带来便利的同时,也能保护我们的隐私和安全。