在快速工程的时代,软件开发者的重要性

2023年06月13日 由 Susan 发表 484942 0
如今,开发人员们面临着自动化代码生成平台的威胁,例如GitHub Copilot、Code Whisper以及ChatGPT和Bard等。这些平台可能在未来几个月内使开发者的工作变得多余。编写代码已不再是过去的艰巨任务,现在只需通过提示就可以构建新的应用和工具,几乎任何人都可以做到。

许多开发人员甚至被要求学习提示工程,以提高技能和生产力。那么现在该怎么办呢?我们可以继续前进,专注于优化LLM(大型语言模型)。

机会丰富

LLM需要使用重型计算机。最近,OpenAI的CEO Sam Altman表示他对OpenAI模型的图形处理器能力缺乏感到担忧。这清楚地表明,优化LLM模型是当前的迫切需求,研究也越来越向这个方向转移。

看看开源社区先后推出的Falcon-7B等模型,它们即使在单个设备上也能与基于GPT的模型保持同等或更好的表现。这需要较少的计算量,因此提高了模型的效率和性能。开发人员需要集中关注对开源生态系统的贡献,因为即使是谷歌和OpenAI也承认无法与社区提供的内容竞争。

构建和提高模型的效率是基于改进这些模型所使用的更好的算法。最近,DeepMind发布了AlphaDev,这是一种基于AlphaZero构建的算法,可以比人类编写的算法快三倍地对数据进行排序。这是在更好的排序算法方面减少人工智能系统计算需求的重大突破之一。

Replit是另一个极大激励开发者社区的例子。除了依靠基于手机的开发人员生态系统并为其构建优化后的Replit之外,Replit通过启动Replit赏金计划来帮助开发者。

使用Replit,许多非开发者可以提出故障或问题并由开发者解决,以便获得Replit的虚拟货币——“cycles”,这可能是一种很好的收入来源。

解决高级问题

现在开发商已经赚到了钱,有很多问题需要解决。由于LLM计算量大,它们也是碳密集型的。微软印度分公司可持续发展主管Alok Lall告诉AIM,“当我们看减排时,很容易看到基础设施和更高效的硬件,如服务器、供热、通风和冷却系统,但要解决和理解其主要成分——代码,”是最重要的。

这就是为什么微软在2021年与ThoughtWorks、GitHub和Accenture合作建立了Green Software Foundation,以使编码和软件开发可持续化。这清楚地表明,通过制定更有效的算法使模型更可持续的需求对许多公司和开发人

开发高级算法

如果我们认为生成式人工智能,更具体地说,基于LLM的模型只是即将破裂的泡沫,那么需要开发者进行研究和开发的空间就很大。例如,DeepMind的AlphaFold用于预测蛋白质结构是需要更多探索的关键领域之一。

基于这一点,最近,Wolfram的生物信息学开发人员Soutick Saha开发了ProteinVisualisation paclet,这是一种将生物分子结构带给所有人进一步构建的工具。他描述了过去12年来他使用了六种编程语言的经历,并且在仅学习Wolfram语言五个月后就能够开发出这个工具。

在印度,开源半导体技术(如RISC-V)的兴起推动了更多初创企业进入芯片设计领域。越来越多的RISC-V初创企业在印度获得了资金支持。

还有量子计算。 NVIDIA通过复制CUDA的成功,并构建了QODA(量子优化设备架构),为量子计算研究开放了大门。这个开源平台是为将图形处理器和中央处理器集成在一个系统中而构建的,因此开发者而非即席工程师可以深入探索

同样,专注于开发小型、室温量子计算解决方案的公司Quantum Brilliance开源了其Qristal SDK。这将进一步允许开发者为量子加速器创新量子算法。这还包括C++和Python API,以及支持使用NVIDIA CUDA创建量子增强设计。

从失望中继续前进


无代码平台通常擅长创建简单或直截了当的应用程序。但是,当涉及到构建具有复杂业务逻辑、集成和可扩展性要求的系统时,硬核开发人员仍然是必不可少的。要专注于构建健壮、可扩展和高效的系统,需要适应高级技术知识的要求。


还有很多工作要做,我们才刚刚开始。现在比以往任何时候都更应该停止生闷气,停止抱怨那些动作迅速的工程师。开发人员不必对这些自动代码生成平台虎视眈眈,而是可以利用它们的创造力和适应性来解决复杂问题和构建架构,同时让这些平台完成编写代码的艰巨任务。


 

 

来源:https://analyticsindiamag.com/relevance-of-software-developers-in-the-era-of-prompt-engineering/


 
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消