网络炒作

吸引公众聚焦,引导网民热议,知名网络推手公司,全国接单,定制专属您的网络炒作方案!
本站是国内知名网络推手团队:千言网络推手公司。常年从事网红明星、品牌公司等网络炒作业务。微信:

很多企业不想做营销活动,但又无法承担巨大的运营成本。但网络炒作成本不高,能有效扩大宣传。也可以结合营销活动的进度进行适当调整。在线炒作可以将信息传播给已建立的客户,然后针对消费者。一旦客户的需求得到满足,他们开始信任企业及其产品,企业与客户的距离就可以不断缩小,最终企业用户可以被公司使用。并且增强客户粘性,有利于以后产品的销售。
GPT可以成为“医生”
  • 2020-11-04 01:12

作者|安妮-劳雷·卢梭,医学博士,克莱门特·波德莱尔,凯文·里埃拉

翻译|月亮,编辑|郑丽媛

标题图片| CSDN从东方IC下载

由| csdn制作(ID: csdn新闻)

以下是翻译:

你一定听说过今年夏天AI圈的超级网红GPT-3。GPT-3来自OpenAI,这是世界上顶尖的人工智能研究实验室之一,由埃隆·马斯克(Elon Musk)、萨姆·奥特曼(Sam Altman)等人于2015年底建立。后来,它获得了高达10亿美元的注资。

另外,你可能听说过医疗领域正在经历AI革命,这归功于在自动诊断、医学文献、药物发现等领域取得的可喜成就。有人声称AI的算法在某些工作上超过了医生,甚至有人宣布机器人即将拿到医学学位!虽然很多传言听起来很牵强,但GPT 3号会成为他们口中的机器人吗?

我们是由多学科医生和机器学习工程师创建的团队。这一次,我们很幸运能够测试这种新模式,并通过探索不同的医学案例,发现可以用作医生的GPT-3是被炒作还是真的很强大。

巨大的GPT 3号

在机器学习领域,像GPT-3这样的语言模型只根据给定的单词(也称为上下文)预测句子中的下一个单词。这是一个超级自动填充系统,类似于你写邮件时使用的系统。乍一看,预测一个句子中的下一个单词似乎很简单,但实际上很多伟大的项目都是基于这种技术的,比如聊天机器人、自动翻译、常见问题等。

到目前为止,GPT-3是历史上训练复杂度最高的语言模型,共有1750亿个参数。所以很多神经网络节点需要密集的云计算微调几个星期,这个AI才能发挥神奇的作用。这个参数虽然巨大,但在人脑的推理、感知和情绪能力上,远远小于几十万亿(甚至上万亿)突触。

由于其规模大,GPT-3可以直接用于新的任务和简短的介绍,而无需进一步微调具体数据。这意味着模型仅通过学习几个初始的例子就可以成功地理解要执行的任务。与以往的简单语言模型相比,这一属性有了很大的提高,更接近人类的实际行为。比如,我们不需要成千上万的例子来区分猫和狗。

由于数据源的混杂,从各种基础书籍到整个互联网,从维基百科到"",GPT-3的训练数据有明显的偏差。然而,GPT-3在将自然语言转换为网站、创建基本财务报告、解决语言难题,甚至生成吉他指弹方面都有出色的表现。那么,医疗保健呢?

放弃

正如开放人工智能在GPT 3号指南中警告的那样,医疗保健“属于高风险类别,因为人们依赖准确的医疗信息来做出生死决策,任何错误都可能导致严重伤害。”此外,这种模式“不支持”对医疗或精神疾病的诊断。尽管如此,这一次我们决定尝试一下,看看该模型在以下医学领域的应用。从医学的角度,我们可以大致把工作从低到高划分为:

●管理员与患者聊天

●医疗保险查询

●心理健康支持

●医疗文件

●医学问答

医疗诊断低

此外,我们还研究了模型的一些参数对答案的影响(包括精彩的内幕)!

GPT-3,下一代个人医疗助理?

我们的第一次测试表明,GPT-3可以用于基本的管理任务,如预订管理。但是当我们深入研究的时候,发现模型对时间没有清晰的认识,没有合适的逻辑。有时候它的记忆力明显不足。如下图所示,在处理预约时,患者明确表示他在下午6点后不在,但GPT 3号仍然建议晚上7点。

在医保查询中表现如何?

与上述管理任务类似,GPT-3可以帮助护士或患者从一篇长篇大论中快速找到一条信息,比如找到某个特定检查项目的保险规定。但是,在下面的例子中,我们为这个模型呈现了一个4页的保险条款列表,其中x光检查需要支付10美元,核磁共振检查需要支付20美元。我们提出了两个问题。GPT-3可以准确告知患者X线检查的价格,但未能汇总多次检查的总金额。可见GPT-3缺乏基本的推理能力。

回收电子产品缓解压力!

当你坐在客厅的沙发上,放松心情,和GPT-3交谈时,它会倾听患者的提问,甚至提出一些可行的建议。这可能是GPT-3在医疗保健领域的最佳使用案例之一。事实上,1966年的伊莱扎算法只是通过模式匹配实现了类人行为,所以GPT-3取得成果也就不足为奇了。

GPT 3号和伊莱扎之间的关键区别在于,像伊莱扎这样基于规则的系统可以完全控制计算机的反应。换句话说,我们确信这种系统不会给出任何可能对患者有害的说法。

然而不幸的是,与伊莱扎相反,在下面的例子中,GPT-3暗示病人会自杀...

另外,模型可能会给出意想不到的答案,比如可能会建议患者回收更多的电子产品来缓解压力,理由虽然牵强,但也很有道理!

医疗文件

GPT-3在总结和简化单词方面非常出色,这对于帮助患者理解带有完整技术术语的医疗报告,或者帮助医生快速理解患者漫长的病史非常有帮助。然而,GPT 3号还没有完全胜任这份工作(至少现在还没有)。我们的测试表明,GPT-3的结果过于简单,无法建立因果关系,也缺乏基本的演绎推理。

医学问答:不到

在寻找具体的科学信息、药物剂量或处方支持时,我们的实验表明,GPT-3不够可靠,不足以作为医生的可靠支持工具。因为有一个很严重的问题:GPT-3经常给出错误的答案但语法正确,不提供任何参考供医生检查。当急诊科忙碌的医生看到这种语法合理的陈述时,很容易误认为是有效的医学陈述。比如下面第一个答案是正确的,第二个答案是不正确的。

诊断:风险自负

诊断是一个更复杂的问答任务:输入症状,然后获取可能解释这些症状的潜在条件。最新的症状检查系统(巴比伦、阿达、赫勒斯等。)并不完美,但它们优于GPT-3,因为它们已经针对医疗诊断进行了精心优化。这些系统的优点是可以输出不同的诊断结果和对应的概率,是医生的一种置信度度量。下面GPT-3的第一个诊断结果忽略了这个发烧的小女孩可能有筛窦炎,莫名其妙的提到“皮疹”。

在另一项测试中,GPT-3忽略了肺栓塞。还好没人死!

内部秘密

正如其他人观察到的,GPT 3的输出质量很大程度上取决于它使用的种子词汇,用两种不同的方式问同一个问题可能会得到两个截然不同的答案。此外,模型的各种参数(如温度参数、顶P参数)也起着重要的作用。温度参数和top P参数控制着引擎呈现答案的风险和创意。

温度参数

在不同的温度参数下,我们得到了同一个问题的两个相反的答案。以下是温度参数T = 0.9时的答案。

相比之下,当温度参数极低(T = 0)时,相似的种子总是会给出完全相同且非常直接的答案。

频率惩罚参数和存在惩罚参数

此外,还要注意频率惩罚参数和存在惩罚参数,可以防止单词重复和话题重复。在医学上,直觉上来说,要尽量减少这两个参数,因为过于生硬的话题切换可能会造成混乱,重复其实挺有用的。但是对比两次人类提出的同一个问题,我们可以清楚的看到,重复惩罚的模式更有同情心,更友好,而另一个设定看起来更MoMo,对人类来说重复太多。以下是不处罚的例子。

下面是一个惩罚的例子:

摘要

正如OpenAI警告的那样,在GPT 3号真正在医疗保健领域做出巨大努力之前,我们还有很长的路要走。由于GPT-3的培养模式,缺乏科学和医学领域的专业知识,不能胜任医学文献记录、诊断支持、给出治疗建议或回答医生的问题。虽然GPT 3号可能给出正确答案,但也很可能给出非常错误的答案。这种不一致在卫生保健领域是站不住脚的。即使对于翻译或总结医学术语等管理任务,虽然GPT-3有很好的发展前景,但要真正支持医生还需要付出很多努力。在这个阶段,相比于采用一个雄心勃勃的通用模型,采用多个由特殊任务训练的监督模型更有效。

说到这里,GPT-3的聊天模块似乎已经做好了为医生减轻负担的准备。忙碌一天后,坐下来和你的私人医疗助理好好谈谈,可以洗掉你一天的灰尘和疲劳。

此外,毫无疑问,语言模型整体会得到快速的改进,不仅对上述用例产生积极的影响,还会影响其他重大问题,如信息结构和标准化或自动咨询总结等。

原文:https://www.nabla.com/blog/gpt-3/


最新动态


相关资讯

  • 舆论风波,杜海涛沈陈梦结婚炒作,
  • 华为轮值董事长徐志军提醒:欧拉炒作
  • 快评“自循环发电”,再做一个水氢
  • G98海南岛高速-桥头搭板有洞!交通管
  • 拜仁丢了5球,7人被评为负!五年来首
  • 贵阳机场T3航站楼正式启用
  • 七部门关于《金融产品网络营销管理
  • 疯狂!CBA场均6.1分,报名NBA选秀!这
  • 网络维护的基础知识是什么?
  • 金辉酒业股价16个交易日翻了一番。投

    微信号:tuisho
    全年无休,早9点至晚9点

    复制号码

    跳转微信

    ×


    靓号
    此号仅服务老客户
    新客户请联系微信

    ×