GPT:科学家表示,GPT-3可以处理您超载的收件箱,因此您可以恢复工作

一个好主意:我们每天花费数小时阅读和回复电子邮件,如果AI可以使两个过程都自动化怎么办?

马斯特里赫特小组从务实的角度探讨了让GPT-3在我们的电子邮件系统中松散的想法。该团队没有专注于GPT-3在响应特定电子邮件方面的出色表现,而是研究了即使尝试也没有任何优点。

他们的论文通过检查GPT-3与微调的机器相比是否有用,与人工劳动相比在财务上的可行性以及对机器产生的错误产生多大影响,从而打破了GPT-3作为电子邮件秘书的潜在功效。发件人和收件人。

3位加密科学家获的理论计算机最高荣誉“2022年哥德尔奖”:金色财经报道,ACM算法与计算理论兴趣组(SIGACT)宣布,2022年哥德尔奖授予Craig Gentry,Zvika Brakerski以及Vinod Vaikuntanathan,表彰其对密码学做出的革命性贡献。

据悉,Craig Gentry是一位美国计算机科学家,目前在由 Silvio Micali 创立的区块链创业公司Algorand Foundation担任研究员。

Zvika Brakerski是魏茨曼科学研究所(Weizmann Institute of Science)计算机科学与应用数学系副教授。他的研究兴趣在于计算机科学基础,目前主要研究密码学和量子计算。

Vinod Vaikuntanathan致力于研究基于格的密码学(格子密码),使用整数格构建高级密码原语。同时,还包括研究如何让密码抵抗泄露,开发抵抗对抗性信息泄漏的算法等等。[2022/5/22 3:34:18]

背景:建立更好的电子邮件客户端的目标是永无止境的,但最终我们正在谈论让GPT-3响应传入的电子邮件。根据研究人员:

前Brave首席科学家BenLivshits加入Zilliqa担任CEO:金色财经报道,区块链平台Zilliqa已经聘请了前Brave首席科学家Ben Livshits担任首席执行官。Livshits过去四年在Brave工作,该公司建立了隐私浏览器Brave。他建立了该公司的研究部门,该部门专注于隐私、可扩展性和性能。Zilliqa是一个专注于使用分片来实现每秒大量交易的区块链。网络被分割成碎片。这些将区块链的数据存储分割到多组节点上。Livshits将鼓励Ziliqa变得更加以数据为导向,并从今年第四季度起更加关注招聘。(theblockcrypto)[2021/10/20 20:43:56]

我们的研究表明,基于GPT-3的电子邮件合理化市场存在于经济的多个不同领域,我们将仅探讨其中的几个领域。在所有行业中,措辞上的小错误所造成的损害似乎微不足道,因为内容通常不涉及大量金钱或人身安全。

斯坦福计算机科学家启动区块链研究中心 V神表示支持:对于斯坦福计算机科学家新近启动的区块链研究中心,V神最近表示十分兴奋并支持。该中心由计算机科学教授Dan Boneh和DavidMazières领导 ,首任教师将包括Alex Aiken、David Dill等人。以太坊基金会也支持该中心。[2018/6/21]

作者继续描述了保险,能源和公共管理部门的用例。

异议:首先,值得指出的是这是预印纸。通常,这意味着科学是好的,但是论文本身仍在修订中。这份特殊论文目前有点混乱。例如,三个独立的部分包含相同的信息,因此很难真正辨别研究的重点。

它似乎表明,如果将GPT-3应用于回复我们的工作电子邮件的任务,将为我们节省时间和金钱。但这是一个巨大的“如果”。

GPT-3位于黑匣子中。人们必须对发送的每封电子邮件进行校对,因为无法确定不会说出任何引起诉讼的内容。除了担心机器会生成令人反感的或虚假的文字外,还有一个问题是试图弄清楚通用知识的机器人对该任务有多好。

GPT-3经过互联网培训,因此它可以告诉您信天翁的翼展或赢得了1967年世界大赛的冠军,但它当然不能决定您是否想参加公司的生日贺卡-worker,或者如果您有兴趣组建新的小组委员会。

关键是,与训练有素的聊天机器人选择预生成的响应相比,GPT-3在响应一般电子邮件时可能会更糟。

快速入门:谷歌搜索告诉我,直到1998年,美国的固定电话才普及。现在,仅仅几十年后,只有一小部分美国房屋仍设有固定电话。

我忍不住想知道电子??邮件是否将成为更长久的交流标准-尤其是如果最后一道创新涉及想出让我们脱离收件箱的方法。谁知道我们离一个可信赖的OpenAIGPT版本还有多远,值得在任何商业级别使用它。

这里的研究值得称赞,并且该论文值得一读,但是最终GPT-3作为电子邮件响应者的用处纯粹是学术性的。与蛮力文本生成器相比,还有更好的解决方案来进行收件箱过滤和自动响应。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

链链资讯

[0:5ms0-3:250ms