ChatGPT“提示工程师”年入百万,合法还不限学历专业

  丰色明敏发自凹非寺

  量子位公众号 QbitAI

  普通人靠 ChatGPT 年薪百万的机会也来了?

  这两天,一个叫做“提示工程师”的新岗位悄悄出现在了招聘市场上:

  不用写代码、不用计算机专业、也不要求学历,就研究怎么跟 ChatGPT“聊天”,年薪居然开到了 25 万美元-33 万美元,折合人民币下来足足 170 万+。

  不信?有图有真相:

  OpenAI CEO 山姆大哥都说,如果会给聊天机器人写 prompt,那可是个强技能点啊。

  但我,还真有点不敢信……

  虽说 ChatGPT 它现在是火得发紫,围绕它创业的创业,投资的投资,抢人的抢人,不承认热闹是不行的。

  但与此同时,各种不沾边的东西也盯上它了,比如诈骗啊钓鱼啊。

  这区区一个提示工程师,给这么多工资,它真的靠谱吗?

  ChatGPT 催生的新岗位

  靠不靠谱,还得先看看它究竟是干什么的。

  这么说吧。想想你在玩 ChatGPT 甚至是在以前玩 AI 画画的时候,是不是用词很匮乏?套路很简单?

  以至于大家都说它们很厉害,但你总是得不出很满意或惊艳的结果?

  这个岗位就是为了解决这个问题而生。

  事实上,它最早的雏形可以说是从AI 画画开始的。

  2021 年 7 月那会儿,AI 画画效果一般也还没出圈,有人发现只要在提示词中加上“虚幻引擎”,画质就瞬间飙升。

  类似地,在 ChatGPT 中,也有人发现,如果它一开始答错了你出的题,不要嫌弃,试试和它说一句“let’s think step by step”,它可能就改对了!

  这,就是提示工程的意义:用合适的描述让 AI 发挥出最大的潜力。

  从上面两个简单的例子也可以看出来,这份工作可能没有那么难,似乎具备脑洞和探索精神就行。

  现在,我们就从开头提到的这份招聘启事,来证实一下我们的猜测。

  这份招聘来自 Anthropic,就是由 GPT-3 核心成员出走成立的那家 AI 公司,谷歌在上面斥资了 3 亿元,现在估值约 50 亿美元。

  Anthropic 对这个岗位开出了如此高的年薪,对申请人具体都有啥要求呢?

  一共 8 条:

  1、具有创造性的黑客精神,喜欢解谜。

  2、善于沟通,喜欢教授技术概念、创建能够帮助他人的高质量文档。

  3、至少对大型语言模型的架构和运转有较高的熟悉度。

  4、至少具备基本的编程和 QA 技能,并且能够轻松编写小型 Python 程序。

  5、具有组织思维,喜欢从头开始组建团队。思考问题全面,并能够主动提出需求。

  6、可以让模棱两可的问题变得清晰,并能找出场景多变的问题中的核心规律。

  7、对技术的安全和社会规范有兴趣,能够预测风险,模拟情景,并为内部利益相关者提供可操作的指导。

  8、能够超越既有范式创造性地思考新技术带来的风险和好处,能够保持对新兴研究和行业趋势的兴趣,随时了解最新情况。

  总的看下来,Anthropic 对提示工程师的能力要求都比较泛泛,哪有年薪百万这种岗位该有的样子?(狗头)

  唯一看起来硬性要求的是第 3 和第 4 条:熟悉 LLM 架构,会编程。

  前者可以临时“恶补”,后者要求也很一般——和动辄卡博士、卡名校计算机相关专业的 AI 圈相比,简直是不值一提。

  而 Anthropic 也在启事末尾说了:不见得所有要求都得全中啊,请不要过早地排除自己,觉得感兴趣的就来。

  得,敢情只要咱对怎么更好地写提示语这样事儿有 sense,即使是个没有高学历、编程一般、非计算机专业的普通人,都有机会蹭一波 ChatGPT 的福利冲一下年薪百万?

  可能还真不是唬人。

  事实上,提示工程这个领域的历史统共也才不到两年,作为一个完全新兴领域的新岗位,具体的标准可以说都还不知从哪里定起。

  这也就是给了咱普通人入场的机会。

  这不,就在去年 12 月的时候,一位小哥因为非常擅长引导 ChatGPT“做事”,拿到了硅谷独角兽公司 Scale AI 的 offer,这应该就是有史以来的首个提示工程师了。

  小哥因为这个 offer 连本职工作也不要了,可想开价是诱人的。

  具备普适性吗?

  而且现在不止一家公司在招聘提示工程师了。

  △写稿时又发现一家,来自法律行业

  还有业内大佬特斯拉前 AI 总监 Andrej Karpathy(现已入职 OpenAI)也公开表示看好提示工程师。

  他调侃说,因为这个新岗位,英语都是目前最火的编程语言了。

  因此不由得想问:以后对话提示工程师会越来越多吗?中国呢?

  要想回答这个问题,还得思考这个岗位的本质到底是什么。

  如一些观点认为,提示工程师这个概念的诞生,其实说明了对话式 AI 的最大缺点——

  还不够聪明。

  因此它需要精心设计的提示词进行引导,才能达到用户想要的结果。

  这不,网友们也自发总结了很多 prompts,GitHub 的相关项目标星都已经到 2.7w 了。

  不过,随着技术的成熟,AI 会越来越聪明,可以直接理解我们的意图给出满意的答案,因此这个做法可能就变得非必需——那么到时,提示工程师这个职业可能也就变得多余了。

  更有甚者表示,可能不用等到那天,一旦于提示词文档完善起来,整个流程变得标准化,这个工种就不被需要了。

  等等,这意味着做这行,或许也就赚个快钱

  还没法马上下定论。

  不过可以确定的是,既然连 GPT-3 核心成员出走成立的公司都需要这样的岗位,那“中国版 OpenAI”们不得也需要——且人数可能相比更多?

  盆友们,这属实是福音啊。

  至少,合理合法。

  还有更野的路子

  通过 ChatGPT 赚钱暴富,也有别的路子,有点野,距离第一批坐牢名单也不远。

  自 ChatGPT 诞生以来,黑客和网络骗子那边也是非常骚动的。

  Telegram 上出现了一些 bots,正在调用 OpenAI 的 API 来用 ChatGPT 生成恶意软件和代码。达到这些 bots 的使用上限后,将收取一定费用,每 100 次仅需 5.5 美元。

  其他社区还出现了一些绕过 ChatGPT 限制的方法。如果实现,意味着犯罪分子使用 ChatGPT 没有限制次数,并能生成恶意软件代码。

  网安大厂 Check Point 在 1 月份,就在黑客社区发现了使用 ChatGPT 攻击的痕迹。

  并且自己尝试了几种让 ChatGPT 网络攻击的方法,效果都好得恐怖。

  比如它生成钓鱼邮件的效果:从文本到代码,都能自己写,还能按照要求不断迭代升级。

  不过这种滥用情况也在一定程度上被解决,所以黑客们改调用 API 了……

  比如调用 ChatGPT 底层模型之一 text-davinci-003 的 API,能通过一封钓鱼软件和一个脚本,快速窃取用户的 PDF 文档,并通过 FTP 发送给攻击者。

  总之,ChatGPT 现在还阴差阳错黑客的门槛给打下来了,就算是技术渣也能搞点危险动作了……

  另一头,电信诈骗想要骗人骗财,恐怕也会更容易了。

  比如在刚刚过去的情人节期间,有机构(McAfee)做了个实验,给 5000 个用户发一封由 ChatGPT 写的情书,结果只有不到三分之一的人觉得这是出自 AI 之手。其他的人要么觉得这就是人类自己的写的,要么实在难以分辨。

  问题是 ChatGPT 势不可挡,网聊 APP(如 OkCupid)已经主动接入 ChatGPT。虽然公司负责人已经呼吁大家不要滥用 AI,但目前没有发布具体政策来进行限制。

  而 McAfee 的数据显示,有 30% 的调查用户选择用 AI 帮自己写个人资料。

  再配合上前几天爆火的 AI 女友,怕不是一个新的产业链要形成了……

  咳咳,冷静。

  如果当不了第一批因为 ChatGPT 富起来的人,那也不要当第一批因为 ChatGPT 进局子的人(认真脸 .jpg)。

  如此看下来,还是提示工程师靠谱一些,不是吗?

  参考链接:

  [1]https://arstechnica.com/information-technology/2023/02/now-open-fee-based-telegram-service-that-uses-chatgpt-to-generate-malware/

  [2]https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt

  [3]https://dataconomy.com/2023/01/what-is-ai-prompt-engineering-examples-how/

  [4]https://www.ft.com/content/0deda1e7-4fbf-46bc-8eee-c2049d783259