自从ChatGPT出现后,舆论开始躁动起来,会觉得整个世界步入了AI时代,且手中的饭碗不保,马上就要失业了,那么事实是否真的如此,是否真的是ChatGPT会强掉人类的饭碗?

特别是AIGC下,很多人觉得类似创作类的岗位,最容易被AI取代,为什么会有这种感觉?我们以LLM交付一张设计图的视角来举个例子:

假设没有AI的情况下,A把需求描述给设计师B,B按照A的需求进行创作,设计和出图,然后反复沟通,直到这个过程中,A觉得不错,可以收工,整个流程结束。
假设有AI的情况下,A把需求描述给设计师AI ,AI 按照A的需求进行创作,设计和出图,然后反复沟通,直到这个过程中,A觉得不错,可以收工,整个流程结束。

可以看到在上面的情况下,AI需要具备两种能力:

  • 对话沟通,理解需求,且可以基于上下文进行调整,也就是多轮对话的能力。
  • 出图,会基于需求画图。

有了这两点,就能具备交付一个设计图的能力,而这两点在SD和ChatGPT中可以看到,确实被LLM给解决了,从交付的视角来看,除了AI或者说B的能力外,A也很重要,可以看到在前面那个例子中。

对A的要求其实不高,A不需要会画图,不需要会设计,只需要有主观的感受,来验收这个设计图是否符合自己的思想,验收门槛不高。

当AI会设计,画图,创作后,它交付出的产物,并没有提高A的技能门槛,即便AI画出了一张逆天的图,A在看到后大为震撼,但是A依旧可以完成验收这个过程,并没有提高A的验收门槛,这一点非常重要。

然后我再换一个例子,假设AI交付了一个公式,这个公式可以完成某个逻辑,就像这个样子:

那么作为A来说,A是个数学家,要验收这个公式是否是正确的,菜鸡数学家还真不行,必须得智力和AI差不多的数学家,才能看懂这玩意儿,才能知道这玩意儿到底对不对。

我们可以换个角度来看,可以说这个公式是个中间产物,不能作为最终产物来看,假设这个公式的最终地方是做一辆汽车,那么要AI把公式推导的逻辑,固化在模型里面,直接交付最终产物,LLM估计还需要几个世纪。

那么对程序员来说,也一样,核心的问题不是LLM写不出代码,而是写出的代码有几个人看得懂?如果能够看懂AI写的搞什么代码,我为什么要它来写?自古以来,在程序员眼里,改造一个遗留系统去读别人的代码,始终没有自己写来的更清晰。

如果只是让LLM写点简单的hello world,那么又谈何取代?

归纳下来其实会发现,LLM交付的产物 ,如果没有提高验收人的验收门槛,那么这个职位很容易就会被LLM取代,反之,则不会。


扫码手机观看或分享: