该项目包含 LeetCode、《剑指 Offer》、《程序员面试金典》等题目的相关题解,题解有 Java、Python、C++、Go、TypeScript、Rust 等多种编程语言实现。
目前只看了滑动窗口的实现,但是如果有热点参数限流的话,想看一下怎么实现的 有大佬看过的,请教一下 或者有哪有这块限流算法的源码解析的文档,可以推荐推荐推荐
比如5个地点ABCDE,两两之间可直达,彼此距离也知道,从A出发巡查其他4个地点后回到A,问最短的距离是多少? 我做的是选择题,只有答案,不知道步骤如何来的。 https://wmprod.oss-cn-shanghai.aliyuncs.com/images/20250103/3e20ac1ad744d7a0494d063add9f247d.png
比如5个地点ABCDE,两两之间可直达,彼此距离也知道,从A出发巡查其他4个地点后回到A,问最短的距离是多少? 我做的是选择题,只有答案,不知道步骤如何来的。 https://wmprod.oss-cn-shanghai.aliyuncs.com/images/20250103/3e20ac1ad744d7a0494d063add9f247d.png
"image.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/images/20241222/ef0cdfa83c511a592582e49b76aecfef.png) "image.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/images/20241222/e7a57d8f9ba8d3cc427881e06589f88c.png) 一道很简单的二重积分问题,请问大佬,不按对称性的解法,按常规解法怎么算出结果的? 我算的总是不对... 还有对称性的解法, 为什么关于y = 0对称就能推出上图的表达式。 没找到对称性关于这点的知识点。 "45a554ef38e56a64d4e534dff2566cb.jpg" (https://wmprod.oss-cn-shanghai.aliyuncs.com/images/20241222/6895db72b2458e7b6fb6b37870ebb550.png)
"image.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/images/20241222/f3d97b85ea1b942c8a245558afcad7d7.png) "image.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/images/20241222/fe398c544a5483e5fe0324da6f1c1a7b.png) 求教大佬 , 第三步是怎么化出来的啊? 我用极坐标代入也没算出这个结果啊。。
比如知道运算规则了,还是不清楚具体计算步骤。
"image.png" (https://wmprod.oss-cn-shanghai.aliyuncs.com/images/20241226/fc73db853ff3baf1777e1311cfbfe5c0.png) 请问大佬 这个标准答案是算错了吗? 第二步的x^2到了第三步怎么没了? 不应该是积分后 1/3 * x^3 吗?
需求:前端修改某个数据的指标值,然后表里的A1-A20000 这两万条数据根据这个指标进行概率计算,概率计算规则是使用A1-A20000这两万条数据对应的历史数据(近一年的数据)结合前端传过来的指标计算出各自的概率,然后按照概率高低进行排序查询,比如前端传概率从高到底或者从低到高分页查询出A1-A20000。 问题:对于这种需求,正常的做法后端肯定是先将A1-A20000以及对应的所有的历史数据查询出来,然后在内存中计算概率,然后再根据前端的传参进行概率排序在分页返回给前端。但是,如果数据量巨大,加上历史数据有好几万条的话,使用这样方式肯定是不行的。 对于这种需求,该如何解决呢?
手动从 huggingface 下载模型之后,怎么把模型文件放到指定路径? 我需要在本地运行 chatGLM3,然后我就用下面的代码跑 from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True) model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True, device='cuda') model = model.eval() response, history = model.chat(tokenizer, "你好", history=[]) 运行上面的代码,首先会从 huggingface 下载 10GB 左右的模型文件。但是问题来了,huggingface 的下载速度太慢了。所以我就想手动下载:"https://huggingface.co/THUDM/chatglm3-6b/tree/main" (https://link.segmentfault.com/?enc=2tvQARfDwqEmnA4EEt%2B90Q%3D%3D.MflLqXiKYoEAHUhoaw%2F0OmJ9soincyTUE0xv9mkNbwnjIm84cRC9T8T67y7Pzc1W6iVzhlHWuoeJk0S8Rfya2w%3D%3D) 但是问题在于,huggingface 奇葩的本地目录结构: ╰─➤ fd -a -u pytorch_model | grep chatglm3-6b /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00007-of-00007.bin /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00003-of-00007.bin /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00006-of-00007.bin /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00004-of-00007.bin /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00001-of-00007.bin /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model.bin.index.json /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00002-of-00007.bin /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/snapshots/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model-00005-of-00007.bin /home/pon/.cache/huggingface/hub/models--THUDM--chatglm3-6b/.no_exist/e46a14881eae613281abbd266ee918e93a56018f/pytorch_model.bin 有一串莫名其妙的 "snapshots/e46a14881eae613281abbd266ee918e93a56018f" !!!! so, 我手动下载了模型文件之后,我怎么知道要把这些模型文件放哪个路径?上哪知道是 e46a14881eae613281abbd266ee918e93a56018f 还是 e46a14881eae613281abbd266ee918e93a56018w?