试用视觉搜索
使用图片进行搜索,而不限于文本
你提供的照片可能用于改善必应图片处理服务。
隐私策略
|
使用条款
在此处拖动一张或多张图像或
浏览
在此处放置图像
或
粘贴图像或 URL
拍照
单击示例图片试一试
了解更多
要使用可视化搜索,请在浏览器中启用相机
English
全部
图片
灵感
创建
集合
视频
地图
资讯
购物
更多
航班
旅游
酒店
笔记本
自动播放所有 GIF
在这里更改自动播放及其他图像设置
自动播放所有 GIF
拨动开关以打开
自动播放 GIF
图片尺寸
全部
小
中
大
特大
至少... *
自定义宽度
x
自定义高度
像素
请为宽度和高度输入一个数字
颜色
全部
彩色
黑白
类型
全部
照片
插图
素描
动画 GIF
透明
版式
全部
方形
横版
竖版
人物
全部
脸部特写
半身像
日期
全部
过去 24 小时
过去一周
过去一个月
去年
授权
全部
所有创作共用
公共领域
免费分享和使用
在商业上免费分享和使用
免费修改、分享和使用
在商业上免费修改、分享和使用
详细了解
重置
安全搜索:
中等
严格
中等(默认)
关闭
筛选器
1200×600
github.com
💡 调用aiopen_api.py ,提示显存不够,应如何配置支持多卡呢 · Issue #305 · QwenLM/Qwen · GitHub
1200×600
github.com
请问lora微调72Bqwen需要多大内存,A800服务器 · Issue #708 · QwenLM/Qwen · GitHub
2876×976
github.com
[BUG] 运行FastChat fastchat.serve.vllm_worker报错 · Issue #123 · QwenLM ...
1200×600
github.com
我微调了预训练模型Qwen-7B如何让他实现多轮问答产生上下文联系 · Issue #1061 · QwenLM/Qwen · …
1200×600
github.com
Q-LoRA微调训练后的要怎么使用,直接加载output路径会缺失文件 · Issue #602 · QwenLM/Qwen · Git…
1200×600
github.com
使用vllm进行部署,推理过早结束,相比from_pretrained 加载答案短很多 · Issue #636 · Qwe…
1175×1021
github.com
[BUG] 聊天出现很多不相关话题的回答。 · Issue #2…
1225×1023
github.com
[BUG] 聊天出现很多不相关话题的回答。 · Issue #253 …
1554×596
github.com
[BUG] 提示词长度超过2048后,生成出错 · Issue #249 · QwenLM/Qwen · GitHub
1200×600
github.com
如果我想训练自己的数据,某一行业的就够了,数据量几十万,能不能训练出一个比7B更小的 …
1200×600
github.com
[BUG] 我就想问“比赛中贡献”这五个字到底哪里违规了,7B的demo的prompt死活无法输出,这显然是LLM …
1200×600
github.com
[BUG] 无法生成指定长度文本 · Issue #233 · QwenLM/Qwen · GitHub
1200×600
github.com
[BUG] 返回重复的内容 · Issue #277 · QwenLM/Qwen · GitHub
1200×600
github.com
[BUG] web_demo是否存在BUG ,生成的内容不能持久显示 · Issue #452 · QwenLM/Qwen · GitHub
1200×600
github.com
用Q-LoRA微调,模型是qwen/Qwen-7B-Chat-Int4,执行脚本成功了。有output_qwen目录产生,但实测 …
1200×600
github.com
Qwen14b-int4模型输出时会出现循环输出现象,请问如何设置参数调整。 · Issue #432 · QwenLM/Qwe…
3544×294
github.com
[BUG] batch进行generate时,Qwen的tokenizer会设置为right-padding,并且无法修改成left ...
859×482
github.com
[BUG] qwen-7b-chat 推理效率随着遍历时间逐渐增加 · Issue #527 · QwenLM/Q…
1200×600
github.com
[BUG] 使用examples/react_demo.py中的方法,会无视问题内容强行使用工具 · Issue #221 …
1200×600
github.com
[BUG] 用LangChain Agent调用qwen-7b-chat时结尾出现大量无意义字符 · Issue #…
1654×1536
github.com
[BUG] 用LangChain Agent调用qwen-7b-c…
2084×1118
qwenlm.github.io
Qwen1.5 介绍 | Qwen
1984×597
github.com
Qwen/README_CN.md at main · QwenLM/Qwen · GitHub
1200×600
github.com
预训练数据似乎带有不少微调数据 · Issue #348 · QwenLM/Qwen · GitHub
1200×600
github.com
微调14b-int4模型,loss始终不下降,甚至还有升高 · Issue #565 · QwenLM/Qwen · GitHub
1200×600
github.com
同样参数量条件下,qwen的推理速度和显存占用都比llama优秀,原因是什么? · Issue #288 · QwenLM/Q…
1200×600
github.com
Readme的样例cpu模式报错 · Issue #273 · QwenLM/Qwen · GitHub
1200×600
github.com
[BUG] 提示词长度超过2048后,生成出错 · Issue #249 · QwenLM/Qwen · GitHub
1200×600
github.com
Qwen 7B base 能否web demo 多轮对话输出? · Issue #178 · QwenLM/Qwen · GitHub
1200×600
github.com
你好,按照您的做法用vllm启动qwen-14Bchat 发现长度最多到2048,请问一下怎么修复呀,谢谢您[BU…
1200×600
github.com
请求int4量化模型 · Issue #18 · QwenLM/Qwen · GitHub
1200×600
github.com
单机8张A100推理,发现推理速度严重变慢? · Issue #511 · QwenLM/Qwen · GitHub
1200×600
github.com
[BUG] 9月25号更新的代码有哪些变动啊?使用AWQ量化后载入不成功 · Issue #466 · QwenLM/Qwen · …
1200×600
github.com
window-attn 默认是否开启? · Issue #422 · QwenLM/Qwen · GitHub
1200×600
github.com
[BUG] · Issue #588 · QwenLM/Qwen · GitHub
某些结果已被隐藏,因为你可能无法访问这些结果。
显示无法访问的结果
报告不当内容
请选择下列任一选项。
无关
低俗内容
成人
儿童性侵犯
反馈