目录有输入就要有输出停下来想一想想好了,继续出发总结一下有输入就要有输出 上一篇文章中,我故意漏掉了一个手法没有讲。具体是什么样的手法呢?其实在实施的过程中,我发现把主干流程的逻辑
上一篇文章中,我故意漏掉了一个手法没有讲。具体是什么样的手法呢?其实在实施的过程中,我发现把主干流程的逻辑讲的再清楚,他生成的时候还是会有很多错误,改进自己的描述已经让我觉得有些烦躁了。我不由得想起了2023年1月,ECM发了一篇文章:《The End of Programming》以呼应ChatGPT的诞生,在文章的最后写道:
我们正在迅速走向这样一个世界:计算的基本构件是有脾气的、神秘的、自适应的代理。
好家伙,克苏鲁神话的味都出来了,世界的底层是混乱与疯狂是吗?所以ChatGPT就是是活化的隐匿贤者?^_^
玩完梗我们回来看这个事情啊,突然我意识到,是不是我之前的prompt还缺了一些东西?我只给了输入和主干逻辑,我没有给他输出啊。在我的视角里,可能这个输入通过这个主干逻辑只能有一种结果,但是对于ai来说,也未必啊(别说AI了,我跟另一个初级开发这么讲,他都未必能写出一种结果来,只能说这个行为表现太人类了)。如果我把输出也给他是不是可以让他写的更好一点,于是我把我的prompt改成了下面的描述:
我想用nodejs用下面的yaml描绘的数据结构得到一个新的数组:
base:
steps: 10
batch_size: 1
poly:
- template_prompt:
template: >
a cat,
${ chara }
${ facial_expressions }
meta:
- chara: # 这里改成了数组
- Abyssinian,
- cat_in_boots,
facial_expressions:
- (smile:1.5),
- (smile:1.2),
- smile,
steps: 20
可能的输出:
[
{
steps: 20,
prompt: 'a cat,\nAbyssinian,\n(smile:1.5),\n',
batch_size: 1
},
{
steps: 20,
prompt: 'a cat,\nAbyssinian,\n(smile:1.2),\n',
batch_size: 1
},
{
steps: 20,
prompt: 'a cat,\nAbyssinian,\nsmile,\n',
batch_size: 1
},
{
steps: 20,
prompt: 'a cat,\ncat_in_boots,\n(smile:1.5),\n',
batch_size: 1
},
{
steps: 20,
prompt: 'a cat,\ncat_in_boots,\n(smile:1.2),\n',
batch_size: 1
},
{
steps: 20,
prompt: 'a cat,\ncat_in_boots,\nsmile,\n',
batch_size: 1
},
]
要求:
假设上面的yaml转成JSON的转换代码我已经写完了
我需要遍历poly下的所有的顶层元素
遍历过程中,要处理template_prompt元素的子元素:
从template中读取作为模版。
读取meta中的属性,因为属性可能每次都不一样,是不确定的,所以不能硬编码。
然后基于meta中的属性,把template作为 string literal 解析,这个解析代码我已经有了,假设名为render_string_template,可以不实现,留一个函数接口即可。
要遍历组合meta中的每一个属性组形成一个数组,
每一个属性组可能只需要看做一个对象,当且仅当每一个属性值都为单值
每一个属性组可能也需要展开,当且仅当任何一个属性值有多值,比如 facial_expressions 有一个值,chara有两个值,那么应该生成1*2也就是两组属性放入这个数组中,这个数组和template会被传入render_string_template函数,最后会获得两个prompt字符串
将生成的个prompt字符串数组和template_prompt元素之外的其他元素合并成一个对象,要求在同一级别。prompt字符串数组有几个元素,就会合并成几个对象,并放入一个新数组中,我们称之为ploys。
继续遍历,直到遍历完所有顶层元素,所有元素都放入了polys中。polys是一个一维数组。
将ploys中的每一个元素与base中的属性合成一个新的对象,base的属性展开与prompt属性同级,当ploys中的每一个元素的属性名与base中的属性名相同时,覆盖base中的属性。这些新对象组合出的数组就是我要的数组
果然就得到了预期的结果。
这一个动作,让我打开了思路,用输入+输出框住它生成的边界还是挺好用的。输入+输出框住边界?这不就是测试吗?
从我们的体验来看,确实啊,ChatGPT生成的是有点不稳定。《The End of Programming》说的没错,底层确实有点混乱与疯狂的味道,起码不太稳定。但这事也就听起来很吓人,说实在的,人就比ChatGPT稳定多少呢?我这个人比较粗心大意,我写代码的时候也经常脑子一抽,写出一些事后看自己都想抽自己的脑残错误,所以我自打听说了TDD,很快就变成了坚定地TDD原教旨主义者,没有TDD的世界对我们这种人来说本来就是混乱与疯狂的,要说驾驭软件开发过程中的混乱与疯狂,那你是问对人了。
那么回顾一下TDD是什么?下面是一个复杂版
基本上就是,先写一个测试用例,然后执行,得到期望的失败,什么是期望的失败呢,比如说,你写了一个add函数,接受两个参数,然后你写了一个add(1,1),你期望的失败可能是返回某个值,他不等于2,实际你执行的时候呢,报错,说add函数不存在,这就不是你期望的失败。你要调整环境到你期望的失败,然后开始写实现,写完实现再执行,如果测试不通过了,就接着改实现,直到通过。如果通过了,就问自己要不要重构,如果要重构,就改实现,改完的还要通过测试,如果不想重构了,那就写下一个测试用例。总之就是这么个往复循环的流程。
如果上面那个复杂版让你觉得很晕呢,可以看这个简单版:
红表示测试执行失败,绿表示测试执行通过,重构就不用解释了。所以永远是绿了重构,重构完可能红可能绿,红了就让他变绿。只有变绿后,可以开始下一次循环。
上面这些图讲的是TDD的过程,我个人觉得更核心的是,在实现代码的这个过程中,你同时生产了一套自动化测试,他可以在你将来不管是加新功能还是修Bug还是重构,都不会陷入按下葫芦起来瓢的窘境。那么在ChatGPT的时代,这个方法还能用吗?总感觉哪里需要修改一下,不过没关系,我们先走起来,边走边想。
那么既然是TDD,应该先写测试,但是我实现都写完了啊。算了,这也是大多数项目的现状,那就先补个测试吧。但是补测试是个很烦的事情啊,我灵机一动,要不……让ChatGPT给我搞?它能行吗?谁知道呢,试试又不花钱。 于是我就说:
给下面代码设计一些测试用例:
module.exports = function render_my_yaml_dsl(data){
const vm = require('vm');
- // 定义一个函数用于渲染字符串模板
function render_string_template(originalScriptTemplate, intention) {
// console.log(intention);
// 省略渲染代码
const execScriptTemplate = "`" + originalScriptTemplate + "`";
- const script = new vm.Script(execScriptTemplate);
const execScript = script.runInNewContext(intention);
// console.debug(execScript);
return execScript;
}
- // 定义一个函数用于展开属性组合
function expand_attributes(attributes) {
const result = [];
attributes.forEach(obj => {
Object.values(obj).forEach(val => {
if (Array.isArray(val)) {
val.forEach(v => {
result.push({ ...obj, [Object.keys(obj).find(key => obj[key] === val)]: v });
});
} else {
result.push(obj);
}
});
});
return result;
}
- const polys = [];
- for (const poly of data.poly) {
const { template_prompt, ...other } = poly;
const { template, meta } = template_prompt;
- const variableGroups = expand_attributes(meta);
const prompts = variableGroups.map(variables => render_string_template(template, variables));
- for (const prompt of prompts) {
polys.push({ prompt, ...other });
}
}
- const result = polys.map(poly => ({ ...data.base, ...poly }));
return result;
}
是的就是这么任性,代码直接扔给他。然后我得到了下面的回复:
以下是一些可能的测试用例:
我叹了口气,我在期望什么,果然是这么泛泛的片汤话吗?这玩意还用你告诉我?而且,你这里面还有些不是我想要的啊。唉……心中抱怨了一阵后,我还是不死心,我继续说:
分别准备一些数据
这个要求仿佛打开了潘多拉的盒子,我得到了下面的输出:
以下是可能的数据准备:
const data = {};
const data = {
poly: []
};
const data = {
base: {
id: 1,
name: 'Product A'
},
poly: [
{
template_prompt: {
template: '${name}: ${price}',
meta: [
{ name: 'color', value: ['red', 'blue'] },
{ name: 'price', value: [10, 20] }
]
},
id: 1
}
]
};
const data = {
base: {
id: 1,
name: 'Product A'
},
poly: [
{
template_prompt: {
template: '${name}: ${price}',
meta: [
{ name: 'color', value: ['red', 'blue'] },
{ name: 'price', value: [10, 20] }
]
},
id: 1
},
{
template_prompt: {
template: '${name} (${size}): ${price}',
meta: [
{ name: 'size', value: ['S', 'M', 'L'] },
{ name: 'price', value: [30, 40, 50] }
]
},
id: 2
}
]
};
const data = {
base: {
id: 1,
name: 'Product A'
},
poly: [
{
template_prompt: {
template: '${name}: ${price + tax}',
meta: [
{ name: 'color', value: ['red'] },
{ name: 'price', value: [10] },
{ name: 'tax', value: [2] }
]
},
id: 1
}
]
};
const data = {
base: {
id: 1,
name: 'Product A'
},
poly: [
{
template_prompt: {
template: '${name} (${color.name}): ${price}',
meta: [
{ color: { name: 'red', code: '#ff0000' }, price: [10] },
{ color: { name: 'blue', code: '#0000ff' }, price: [20] }
]
},
id: 1
}
]
};
const data = {
base: {
id: 1,
name: 'Product A'
},
poly: [
{
template_prompt: {
template: '${name} (${color}): ${price}',
meta: [
{ color: ['red'], price: [10] },
{ color: ['blue'], price: [20] }
]
},
id: 1
}
]
};
const data = {
base: {
id: 1,
name: 'Product A'
},
poly: [
{
template_prompt: {
template: '${props.name}: ${props.price}',
meta: [
{ props: { name: 'Product B', price: 30 } }
]
},
id: 1
}
]
};
const data = {
base: {
id: 1,
name: 'Product A'
},
poly: [
{
template_prompt: {
template: '${name}: ${price}',
meta: [
{ name: 'color', value: ['red', 'blue'] },
{ name: 'price', value: [10, 20] }
]
},
id: 1
}
]
};
console.log(render_my_yaml_dsl(data));
const data = {
base: {
id: 1,
name: 'Product A'
},
poly: [
{
template_prompt: {
template: '${name} (${color}): ${price}',
meta: [
{ color: 'red', price: [10] },
{ color: 'blue', price: [20] }
]
},
id: 1
}
]
};
这一刻,我仿佛听到了什么出现裂纹的声音,是我的饭碗吗^_^。
我曾经愚蠢的以为,当我们有了ChatGPT这么强大的工具后,我们只需要写测试就可以了,让他去写实现,而我没有发现这个逻辑里面一个愚蠢的漏洞,一个AI都能写实现了,为什么他写不了测试呢?反过来讲,有很多客户问我有没有自动生成自动化测试的工具,因为他们不想写测试,现在也一样尴尬了。好消息是,有,坏消息是,实现他也能写。
激动了一会,我渐渐冷静下来了,没事没事,这测试没法直接用啊,对吧,你看这测试难道还能扔给一个框架让他自动运行吗,那不是还要写一个专用框架………………想到这,我意识到……好像……我在第一篇的时候干过这事……然后我怀着忐忑的心,写下了下面的prompt:
我们的文件夹结构如下所示
.
├── index.js
└── test
├── cases
│ ├── 1.input.json
│ ├── 1.output.json
│ ├── 2.input.json
│ ├── 2.output.json
│ ├── 3.input.json
│ ├── 3.output.json
│ ├── 4.input.json
│ └── 4.output.json
└── index.js
index.js 是一个函数,大概如下:
module.exports = function render_my_yaml_dsl(data){
//....
}
test/cases下是所有的测试数据,input和output为一组,比如1.input.json存储了一个测试的描述和given数据,1.output.json存储了一个测试的expect数据。两者在.input或.output之前的字符串完全相等为一组。 input.json数据结构为:
{
"desc": "测试用例描述",
"data": { //具体的测试数据
}
}
output.json则全部为具体的测试数据 基于这个文件夹结构写一个测试框架,放在test/index.js里,要求:
可以遍历test/cases下的文件,分组执行且互相不干扰,也就是其中一组失败了也会继续运行下一组,只是会打印出错误信息。
可以在上层文件夹执行node test
来执行
读取文件的fs,要使用const fs = require('fs/promise')引入。
用assert库进行断言
每执行一个测试,要打印一个提示,提示的部分内容要来自input.json 中的desc 给出这个代码
然后我得到了下面的代码:
可以使用以下代码实现测试框架:
const assert = require('assert');
const fs = require('fs/promises');
const path = require('path');
const render_my_yaml_dsl = require('../index');
const testDir = path.join(__dirname, 'cases');
async function runTests() {
const files = await fs.readdir(testDir);
for (const file of files) {
if (!file.endsWith('.input.json')) {
continue;
}
const caseName = path.basename(file, '.input.json');
const input = await fs.readFile(path.join(testDir, `${caseName}.input.json`), 'utf8');
const output = await fs.readFile(path.join(testDir, `${caseName}.output.json`), 'utf8');
const { desc, data } = JSON.parse(input);
console.log(`Running test "${desc}"`);
try {
const result = render_my_yaml_dsl(data);
assert.deepStrictEqual(result, JSON.parse(output));
console.log(`Test "${desc}" passed`);
} catch (error) {
console.error(`Test "${desc}" failed`);
console.error(error);
}
}
}
runTests();
解释:
这一刻我终于确信,那确实是饭碗出现裂纹的声音。(虽然上面的只有输入,但是后来我让他给出输出,他也给出了,反正测试框架都有了,大不了跑一遍就有了所有的输出了嘛,所以这不是啥大问题。)
有了这个框架之后,我工作流程大概变成了这么个节奏:
然后执行新加的测试,
如果新测试不通过,就让他重新生成.
如果新加测试通过了,但是旧的测试废了,就把就废了测试配上代码给他,告诉他代码有Bug,这是以前的输入,期望的输出是什么,你现在的输出是什么,让他改代码。 整个过程就很像TDD的红-绿循环,虽然重构没有了,但是红绿循环还是有的。 而更过分的是,一开始新功能需要的测试用例我都懒得自己写,我就大概告诉他要搞个什么样的扩展,给他代码和旧得测试用例结构,让他给我写个新的测试用例。然后就给我写出来了。(也不总能很完美,但是就是需要改也比以前快了不知道多少,关键不用去想那些繁琐的细节也是提供了一定程度的情绪价值。)
按照我的工作流程画个人在回路是这样的:
开篇我们从一个上一篇漏掉的关键手法开始,了解到输入和输出配合可以让ChatGPT写出的代码更靠谱,而且对于主干流程的描述可以不用那么复杂。
接着我们发现,这确定了输入输出就很像测试,那么我们是不是可以用测试驱动的方式驱动ChatGPT开发呢?经过一番尝试我们得到了一个可以用于ChatGPT的类TDD工作方式。并画出了整个人在回路。
这个回路很像TDD,但在这个回路里,我们既不需要写测试,也不需要写实现,我们主要的工作是保证ChatGPT在按照整个TDD的流程在写代码。因为TDD属于XP(极限编程)的核心实践,所以我们开玩笑说,参照Scrum Master,我们以后可以叫自己XP Master。被人提醒Master会被冲,那我们就叫自己 XP Shifu 吧。(典出功夫熊猫^_^)
目前受制于GPT3.5的3000多字的限制,只能一个个用例让他改,等GPT4的3万多字成为常态后,这个工作方法只会更强大,甚至可以考虑某种程度的自动化。因为我们可以看到,人在回路上只有一个环节需要人参与,其他的都可以不需要。这就是我们上篇文章中提到的,可以自动化的一种思路,有想做工具的可以考虑一下,我还挺需要这么个工具的。
整个用ChatGPT编程的思路到这里主干就讲的差不多了,接下来我们会讲一些细分场景的套路。然后如果有时间的话,就把派发引擎和自动化工具也试着做一做
以上就是测试驱动ChatGPT编程示例详解的详细内容,更多关于测试驱动ChatGPT编程的资料请关注编程网其它相关文章!
--结束END--
本文标题: 测试驱动ChatGPT编程示例详解
本文链接: https://lsjlt.com/news/201002.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-01-12
2023-05-20
2023-05-20
2023-05-20
2023-05-20
2023-05-20
2023-05-20
2023-05-20
2023-05-20
2023-05-20
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0