万码OPKQWBUB
程序员们现在手头都有多少存款?(1024活动话题)
🥚🥚🥚
万码OPKQWBUB
有什么开源工具可以实现视频内容总结?
最近逛 b站的时候,发现有这种 Ai视频小助理,可以实现内容总结
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724895071670_2PdG.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724895071670_2PdG.png)
这个功能点,刚好可以契合我的项目的一些需求,所以有什么开源工具可以实现视频内容总结?
视频
https://www.bilibili.com/video/BV1s4421A7nb/?t=50.664128&spm_id_from=333.1350.jump_directly
万码OPKQWBUB
copilot/new bing 怎么回到某个对话历史?
https://copilot.microsoft.com/
copilot 怎么回到某个对话历史?
像 chatGPT 点击左侧就能选择某个对话历史,继续对话
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894864180_cNcW.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894864180_cNcW.png)
但是 copilot/new bing 好像没有这个功能?不能「再续前缘」了?
点了右侧那些没反应
万码OPKQWBUB
有没有现有的AI能完成我的图片转换为相应的画风?
请教大家,现有的什么AI工具能完成我的需求(如果有参数最好附带上,谢谢大哥们),这种风格类似手绘,但我能搜到的转手绘工具都不能满足我的需求。
小弟先谢谢大神们的解答,感激不尽!
原图↓
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894734443_ZHXR.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894734443_ZHXR.png)
转换后的风格↓
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894751073_AlKK.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894751073_AlKK.png)
万码OPKQWBUB
chatgpt 是如何实现“继续生成”功能的?
chatgpt 是如何实现“继续生成”功能的
我用 chatgpt 翻译文档,当内容过多的时候,chatgpt 一次无法全部返回,会出现“继续生成”按钮,点击后会接着上一句继续生成。我使用其他的大语言模型就没有这种功能,想知道他们是怎么实现的?
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894594905_0H2O.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894594905_0H2O.png)
万码OPKQWBUB
langchain 中 initialize_agent 被禁用后,有什么推荐用法?
langchain 中 initialize_agent 被禁用后,有什么推荐用法
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894475625_IMCG.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894475625_IMCG.png)
参考链接:https://python.langchain.com/docs/changelog/langchain/#deprec...
万码OPKQWBUB
ChatGPT GPTs中请求post接口报错INVALID_REQUEST_UNKNOWN?
在gpts中发送一个post请求出现以下错误,但是调用其他的get请求是正常的,为什么?是不是gpts在发送post请求时,把格式进行了转换,导致了请求错误?
左边是GPTS在debug模式下发送的请求参数, 右边是在postman中请求的接口参数。
左边报错了,右边正常返回
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894353878_8mYt.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894353878_8mYt.png)
chatGPT GPTs中完整的报错信息如下:
{
"response_data": {
"error": {
"type": "INVALID_REQUEST_UNKNOWN",
"message": "Invalid request: parameter validation failed. Check your request data."
}
},
"status_code": 422,
"action_id": "g-fc4f5e0f9d61f1dd099ec4da991b56ab2e66012b"
}
万码OPKQWBUB
为什么现在 LLM 生成的图片的字体都很马赛克?
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894136980_S739.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894136980_S739.png)
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894156613_ZXx9.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894156613_ZXx9.png)
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894172349_zreA.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894172349_zreA.png)
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894187978_rGg2.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894187978_rGg2.png)
大致一看好像行,但是细节很模糊,看不清字
万码OPKQWBUB
ChatGPT是如何做到如此智能?
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894016282_Cm9L.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724894016282_Cm9L.png)
用了什么算法和数据模型?
万码OPKQWBUB
chatgpt上下文接口参数如何实现?
对照openai官方接口文档,目前可以方便实现一问一答的结果返回。
但是对于字数超额,需要上下文关联继续输出的,官方文档好像没说明,查找资料有context和conversition_id等参数,通过尝试,接口会报错不支持该参数。
哪位大佬对接过,麻烦指点一下。
万码OPKQWBUB
chatGPT 如何输出图片?
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724893471228_44ok.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724893471228_44ok.png)
根据这个教程提供的方式
https://zhuanlan.zhihu.com/p/607465592
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724893504998_TJlq.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724893504998_TJlq.png)
还是不行
"https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724893534228_WPIH.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/community/1724893534228_WPIH.png)
万码OPKQWBUB
chatGPT stream方式如何接入呢?
如题,除了api 据说可以stream方式交互数据?怎么实现
万码OPKQWBUB
new bing 是 gpt3.5 还是 gpt4 ?
new bing 是 gpt3.5 还是 gpt4
new bing 我申请好几个月了,都没有申请下来
万码OPKQWBUB
关于 langChain 的使用问题?
我用亚马逊云的Lambda函数,通过langChain调用OpenAI API。我把OPENAI_API_KEY存在了Lambda函数的环境变量里了。神奇的是,在创建new ChatOpenAI()实例的时候没有传入OPENAI_API_KEY,还是可以获取到正确的返回值。这是为什么?
import { ChatOpenAI } from "langchain/chat_models/openai";
import { HumanChatMessage, SystemChatMessage } from "langchain/schema";
export const handler = async (event) => {
const chat = new ChatOpenAI({ temperature: 0 });
const response = await chat.call([
new HumanChatMessage(
"把大象装冰箱一共分几步?"
),
new HumanChatMessage(
"为什么?"
),
]);
return response;
};
万码OPKQWBUB
langChain + lambda 整体耗时大于20m?
请问,用langChain + lambda 整体耗时大于20m,有好的解决办法吗?
万码OPKQWBUB
用vue2+chatGPT如何实现流式输出?
我是使用EventSource去实现的,可显示的话和访问普通接口一样是全部一次性显示出来,以下是我的代码
let sse = new EventSource(`http://localhost:8080/api/openai/completions/stream?user=${this.user}&prompt=${this.message}`)
let this_ = this
this_.items.push({user: 'user', messageType: 'TEXT', message: this_.message})
this_.message = ''
sse.addEventListener('open', (function () {
this_.generating = true
this_.items.push({user: 'bot', messageType: 'TEXT', message: ''})
}))
sse.addEventListener('message', function (res) {
let resJson = JSON.parse(res.data)
if (resJson.code !== 0) {
this_.generating = false
alert("处理失败:" + resJson.msg)
sse.close()
return
}
resJson = resJson.data
if (resJson.messageType === 'TEXT') {
if (resJson.end === true) {
sse.close()
this_.generating = false
} else {
let index = this_.items.length - 1
let obj = {
user: 'bot',
messageType: 'TEXT',
message: this_.items[index].message + resJson.message,
html: ''
};
this_.$set(this_.items, index, obj)
}
//图片
} else {
}
}
)
sse.addEventListener('error', function () {
alert('服务器错误,请查看日志')
})
请问要如何才可以实现和chatGPT一样效果的流式输出
tips:我自己用网页访问接口数据是一条一条输出的,可是在控制台看的话也是一瞬全部出来,虽然是分很多条
万码OPKQWBUB
ChatGPT对万码优才问答社区的影响分析:AI是否会替代传统网站?
chatgpt出现后对万码优才问答式的影响有多大?很多问题都能在chatgpt上获取到答案?AI是否会慢慢替代传统的网站
和不同领域专家交流过,见仁见智。希望能得到有洞见的观点。
万码OPKQWBUB
如何使用AI进行足球比赛结果的非规律性预测?
因为欧洲杯接触到了竞彩
于是想到,也看到,用AI来进行预测足球比赛比分或者是其他彩票类项目结果。
这里只聊足球,其他的先不谈。
先说一下,这是一篇讨论帖,也算是求助帖,没有任何不良引导因素。
资本和技术,往往不一定是技术取胜…首先这是共识吧,如果这一点也不认可的话就没必要往下看了。
谈到足球,有研究的大佬们肯定可以把欧赔、亚指、盘口、水位等等各类名词如数家珍,也相信很多人和我一样,希望或者是感觉能通过AI,来完成对足球比赛结果的“预测”,这里为什么说是预测呢,因为“球无假球,盘有假盘”,做盘的不一定会每次漏出一样的马脚被你发现,而这场博弈说到底也就是一次次惊心动魄的“二选一”。
但是作为人类,很难从理性的角度去分析、判断,往往会受到各种场外因素影响,也不具备如AI一般庞大的信息收集与处理能力。
那么我们有没有可能,在足够数据训练的情况下,通过AI工具,将分析准确率有效提升呢?
万码OPKQWBUB
如何用chatgpt拆文章提取片段主要内容?
现在有个需求是用chatgpt的api拆文章,并提取片段内容,由于api的字数限制,没办法通篇把文章给chatgpt的api,比如要求拆成30段,那只能用js代码把文章按字数拆成30分,然后把这每一份给chatgpt的api,得到片段内容。
这里的问题是由于都是一个个的片段,得到的片段主要内容不符合要求,或者干脆gpt返回的就是没办法提取主要内容。
这种用gpt的api拆小说的场景有什么好办法吗?
万码OPKQWBUB
关于多用户聊天机器人及向量数据Pinecone的使用问题?
求大佬指点,以下关于向量数据Pinecone的使用问题?
1.把用户聊天上下文数据储存到Pinecone,每次输入新聊天内容,都要从Pinecone取数据作为上下文传给ChatGPT,那把数据保存到Pinecone和保存到自己的服务器有什么区别?
2.如果用户从使用聊天工具开始的所有聊天记录都保存到Pinecone。然后根据用户最新输入内容从Pinecone去取最相近的10条(自定义),这个检索过程是从所有聊天内容中进行检索,然后把得到的数据作为上下文内容,传递给ChatGPT,是可以这样理解吗?
3.用户ID,我计划在用户注册时,直接将用户ID转换成向量数据保存,在用户发起问答时,再用转换成向量数据的ID去Pinecone查询,这样操作是否可行?
万码OPKQWBUB
chatgpt的接口和网页版有什么不同?
我用了chatgpt的接口提问,但是感觉回复的内容和网页版本提问的内容差很多,网页版本的回复答案很好,但是接口的回复不行,是什么问题呢?
万码OPKQWBUB
数组合并问题?
a=[78,187,30]
b=[78,186,185,25,30]
c=[78,187,186,185,25,30] //想获得的结果
a=[1,2,3,4,5]
b=[1,6,7,8,3,9,5]
c=[1,2,6,7,8,3,4,9,5] //想获得的结果
a、b数组里面的值都是唯一的,怎么用js获得想要的值呢?
问了ChatGPT都没解决,它给的方法在控制台输出结果不一致,因为chatGPT的js环境不一样。
万码OPKQWBUB
手动从 huggingface 下载模型之后,怎么把模型文件放到指定路径?
手动从 huggingface 下载模型之后,怎么把模型文件放到指定路径?
我需要在本地运行 chatGLM3,然后我就用下面的代码跑
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True, device='cuda')
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
运行上面的代码,首先会从 huggingface 下载 10GB 左右的模型文件。但是问题来了,huggingface 的下载速度太慢了。所以我就想手动下载:https://huggingface.co/THUDM/chatglm3-6b/tree/main
但是问题在于,huggingface 奇葩的本地目录结构:
╰─➤ fd -a -u pytorch_model | grep chatglm3-6b
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00007-of-00007.bin
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00003-of-00007.bin
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00006-of-00007.bin
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00004-of-00007.bin
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00001-of-00007.bin
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model.bin.index.json
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00002-of-00007.bin
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00005-of-00007.bin
/home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/.no_exist/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model.bin
有一串莫名其妙的 snapshots/e46a14881eae613281abbd266ee918e93a56018f !!!! so, 我手动下载了模型文件之后,我怎么知道要把这些模型文件放哪个路径?上哪知道是 e46a14881eae613281abbd266ee918e93a56018f 还是 e46a14881eae613281abbd266ee918e93a56018w?
万码OPKQWBUB
如何作为个人开发者有效运营?
如何作为个人开发者有效运营?
做为一名刚毕业一年的新人,我在两个月前凭着突发奇想,独立开发一款AI文案类的小程序。作为程序员只针对技术有所了解,但对产品运营却了解不多。我希望不仅仅是把产品开发出来,还希望能让更多用户体验。
我想请教大家,你们是如何运营?有没有好的建议,程序是已经上线了的(附上程序截图)
希望能够和大家一讨论与建议
万码OPKQWBUB
如何作为个人开发者有效运营?
如何作为个人开发者有效运营?
做为一名刚毕业一年的新人,我在两个月前凭着突发奇想,独立开发一款AI文案类的小程序。作为程序员只针对技术有所了解,但对产品运营却了解不多。我希望不仅仅是把产品开发出来,还希望能让更多用户体验。
我想请教大家,你们是如何运营?有没有好的建议,程序是已经上线了的(附上程序截图)
希望能够和大家一讨论与建议
万码OPKQWBUB
如何在Java项目里整合ChatGPT?
如何在Java项目中调用ChatGPT的接口,我看了官方文档看不懂。
万码OPKQWBUB
使用JSON.parse解析字符串失败咋回事?
使用JSON.parse 解析后端返回的 responseText 报错
JSON.parse("data: {\"text\": \"你好👋!我是人工智能助手智谱清言,可以叫我小智🤖,很高兴见到你,欢迎问我任何问题。\", \"message_id\": \"4577136f046344b799d098f0bf5fd0de\"}\r\n\r\n")
报错信息:
Uncaught SyntaxError: Unexpected token 'd', "data: {"te"... is not valid JSON
万码OPKQWBUB
调用chatgpt接口出现403报错,怎么解决呢?
import fetch from 'node-fetch';
import HttpProxyAgent from "http-proxy-agent"
import { ChatGPTAPI } from 'chatgpt';
async function example() {
const api = new ChatGPTAPI({
apiKey: 'xxx',
completionParams: {
model: 'text-davinci-003'
},
fetch: (url, options) => {
console.log(url, options);
return fetch('https://api.openai.com/v1/chat/completions', {
...options,
agent: new HttpProxyAgent("socks5://127.0.0.1:7890")
})
}
})
const res = await api.sendMessage('Hello World!')
console.log(res.text)
}
example()
其中agent: new HttpProxyAgent("http://127.0.0.1:7890")是代理地址
其地址来自vpn应用:
image.png
如果不配agent: new HttpProxyAgent("http://127.0.0.1:7890")这一行会出现一直请求但没有结果,属于连接不上去
配了后请求会报错403:
image.png
错误详情:
ChatGPTError: OpenAI error 403: {
"error": {
"message": "The OpenAI API can only be accessed over HTTPS. You should access https://api.openai.com rather than the current URL.",
"type": "invalid_request_error"
}
}
我应该怎么解决这个问题?麻烦大佬们指点一下
我把http换成https后,报验证不过去;应该使用一个https证书,这个我应该如何操作
image.png
万码OPKQWBUB
小程序限制使用ChatGPT,除了ChatGPT外,有什么其它开源模型可以使用吗?
除了ChatGPT外,其它开源模型如斯坦福的小羊驼,或是其它GitHub上的开源模型,在小程序上可以使用吗?
万码OPKQWBUB
大家会使用ChatGPT生成代码吗?效率到底有没有提升,安全性问题大不大?
除了CatGPT 之外,还有Github Copilot、DeepTabnine 之类的工具也是基于大语言模型,能实际生成代码的。这些工具宣传拿出来的数据也很厉害啊,比如在 GitHub Copilot 作为市场宣传素材的研究中,Copilot 能够独立完成 46%的代码,对于标准化内容,Copilot 能够以比⼈⼯快 58%的速度⽣成代码。(研究名称:Quantifying GitHub Copilot’s Impact on Developer Productivity and Happiness)
但反面问题也挺多的,我找到的一些调查结果:
有程序员朋友表示“每天编程的时间本来就不长,主要时间花在沟通上,其实没有强到能让我提前下班”
比较了 Copilot 和传统自动完成(即流⾏的 Intellisense 插件)的用户体验,结果发现参与者在使用 Copilot 时完成任务失败的次数比使用 Intellisense 插件时更多,但任务完成时间没有显着影响。(研究名称:Usability and design studies of AI-assisted programming)
发现该插件对任务完成时间或程序正确性没有显著影响;此外,他们发现参与者在他们的实验中编写的⼤多数(60%)提示词(Prompt)都没有⾜够详细地说明 (研究名称:Towards natural language interfaces for programming: A user study comparing programming with and without an extension.)
⼀项 2021 年的早期研究中,研究者检查了 GitHub Copilot 中的代码建议有不安全的代码(研究名称:Security risks of AI code generation: A study of GitHub Copilot)
基本上准确性、安全性问题,也是各家企业使用这类工具的核心疑虑,比如Salesforce 调研IT 的负责人就发现超过60%的企业IT 负责人都认为有这类的问题(来源:Generative AI research: What business leaders need to know, Salesforce News)
国内各科技公司也都有措施,比如美团、阿里、字节都是禁止使用,腾讯和蚂蚁是不建议使用,华为是高保密项目禁用+其他项目不建议使用。
所以想要请教下大家,实际使用下来效果怎么样?利弊哪个更大?
万码OPKQWBUB
chatgpt 怎么计算 tokens 的长度啊?
求各位大佬分享,有现成的 npm 包吗?
万码OPKQWBUB
目前chatgpt还没有开放api,网上那种自己搞的是哪里来的??
目前chatgpt还没有开放api,网上那种自己搞的是哪里来的?
比如接入微信公众号的,小程序,微信群,qq群的那些号称chatgpt的机器人是真接入了chatgpt??
我只知道有个v1那个接口,但是那个接口的数据和chatgpt差距挺大的。