Enrique Puertas教授认为,ChatGPT还是非常新的技术,只有随着时间的推移,我们才会意识到它在使用中带来的不利影响。
图源UE官网
最近几周,人人都在谈论人工智能,特别是随着Chat-GPT4带来的新功能,我们更加认识到这一软件具有的革命性。然而,我们对这些工具应该保持谨慎,就像欧洲大学人工智能和大数据教授Enrique Puertas指出的那样:“它可以被运用到非常积极的事情上去,但是由于它产出的文章的质量,也可能会有人歪曲它的用途,并恶意地利用它。”
事实上,教授警示到,ChatGPT可以被利用进行虚假信息的散布,例如曾经发生过的著名的“假新闻”,或者虚构网络钓鱼邮件,来骗取人们的证件或者敏感信息,甚至代写学术论文,还有其他的不当利用。
· 作为这个工具的最早一批用户,有什么是需要我们注意的?
首先我们需要意识到,我们提供给ChatGPT的内容的数据都去哪里了。一些提供类似于ChatGPT的聊天服务的公司,例如Google Bards, 会在服务使用条款与条件中说明(一般没有任何人会看),我们输入的内容可能会被保存3年,并且可能有人会审查它们。因此建议所有人不要输入任何形式的敏感信息:
对于那些第一次使用向ChatGPT这样的AI工具的人,我的建议是,用找一位朋友(一位聪明且无所不知的朋友)提供帮助的方式和它对话,并且逐步地细化请求的描述。为了得到一个复杂和精细的结果,最好是从一些较为宽泛和抽象的要求开始,然后根据生成的文本逐步细化其中的各个部分。
例如,如果我们想要它给我们写一篇关于人工智能的文章用来发布在博客上,我们可以先提出让它生成一个含有6个章节的关于人工智能的文章的大纲,然后我们请它完成第一章节的撰写,随后是第二个章节,在每个章节中,可以根据我们要继续探讨的内容来提问或者要求它展开讨论。
· 这个技术是否能在短期内极大地提高我们的生产力?
在整个2023年中,我们将能看到大量融合ChatGPT或者类似技术的工具出现。
微软已经宣布将推出Microsoft 365 Copilot,这是嵌入ChatGPT的新版Office软件,它将允许我们使用自然语言提出请求,例如给我们创建一份关于特定主题的有10页幻灯片的PPT,或者根据一张Excel表的数据得出总结,自动绘制图表,并展示从数据中提炼出的最值得关注的信息。
这仅仅是一个例子,在不远的未来,我们将能看到大量融合该技术的工具如何深刻地提高我们的生产力。新版的ChatGPT是建立在GPT-4的基础上的,它比上一个人工智能模型GPT-3要大500倍。上一个版本共包含1750亿个参数,新版本则有1万亿参数。相比之前,这个新版本中的“幻觉”极大地减少,也就是说当它开始写一些不真实的东西,编造内容。
除此以外,这个新版本还是多模态的,也就是说,除了文本以外,我们可以直接上传图片并针对图片对它提问。举个例子,我们可以上传一张电费的发票,并要求它给出解释,以及提供关于如何节省电费的建议。
· 人工智能会一直存在吗?
目前它几乎在所有领域都有应用,零售、物流、金融、保险等,当然还有医疗领域,包括临床和管理方面。现在已经存在可以预测病症和精准诊疗的AI,甚至在某些情况下它的表现超过医生。
AI可以帮助检测疾病,并建立一个更加有效的医疗系统。比如说,西班牙已经有医院在病人预约医生的时候使用AI模型,它可以自动分析病人的初次就医登记表,并且以极高的精确度,针对接下来医生需要对病人实施的检验提供建议。
采取这种方式,病人就可以带着检查结果来问诊,而医生能够直接给他们诊断。不像在传统的流程中,首次问诊时,一般医生都会安排病人进行检查,病人则需要第二次来看医生。人工智能可以帮助节约时间,资源,并且改善病人就医的体验。
· 尽管很多时候我们自己仍需提高,是否有可能给AI传授道德观念?
已经有一些举措和项目正在这个方向突破,但是我们不应该忽视人工智能是通过数据学习的,如果数据中包含偏见,或者不道德的行为,那么AI就会学习它们。这就是为什么努力确保人工智能从高质量的数据中学习是非常重要的,这包括经过处理的数据,以消除其可能包含的偏见和错误。这是当今的一大挑战,而在这方面许多的公司的机构都没有给予足够的重视。
关于【马德里欧洲大学】的硕士专业,如果您想了解更多信息。欢迎关注我们的官方公众号【UEM Online】,在公众号菜单栏的“课程选择”中获取,也可以直接“点击下方二维码报名”
关闭