畅言的个人网站 分享生活与技术

部署jumpserver服务

下载包 wget https://cdn0-download-offline-installer.fit2cloud.com/jumpserver/jumpserver-ce-v4.10.12-x86_64.tar.gz 解压包 tar -xf jumpserver-ce-v4.10.12-x86_

yanchang 发布于 2025-11-20

如何通过堡垒机JumpServer使用VisualCode 连接服务器进行开发

一、需要提前准备: 本文主要介绍通过 Visual Studio Code(以下简称vscode)的 Remote-SSH 插件直连 JumpServer 所纳管的 Linux-SSH 协议资产,从而进行远程开发。 VSCode 是一个运行于 Mac OS X、Windows 和 Linux 之上的

yanchang 发布于 2025-11-20

WSL环境下配置CUDA环境

下载安装 首先官方链接放在这里 https://developer.nvidia.com/cuda-downloads 选择如下 按照官方提示安装 wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86

yanchang 发布于 2025-11-10

设置 WSL 开机启动并在后台运行

默认情况下,启动 WSL 后需要保持启动窗口(终端)保持开启,如果关闭这个终端,WSL 会几秒后自动退出,如果需要 WSL 作为开发环境或一些 docker 服务需要常驻运行,这种前台运行的模式显然是不合适的,应该让 WSL 随系统自动启动并保持在后台运行。 后台运行 在命令行下使用 wsl -l

yanchang 发布于 2025-11-10

AI生图+转换视频+换脸

内容脚本 #!/bin/bash # run_manual_parallel_batch_with_progress.sh # MODIFICATION: Record the start time for the entire script GRAND_START_TIME=$(date +%s

yanchang 发布于 2025-10-12

AI 视频生成(小视频低帧数)

碎碎念 终于找到了一个模型符合规范可以分割的模型和项目了,总之可以勉强在两张2080ti上面跑起来,不过要手动修改模型的分割逻辑,把一个大模型切割放在显卡里,虽然慢的要死是六分钟左右生成一个分辨率512*512 4秒的视频,不过好歹是跑起来了,补足了工作流的最后一环。 开搞 LTX-video 地址

yanchang 发布于 2025-10-12

工作流串行(ai生图和换脸)

#!/bin/bash # run_manual_parallel_batch_with_progress.sh # 切换到脚本所在目录 SHELL_FOLDER=$(cd "$(dirname "$0")";pwd) cd $SHELL_FOLDER # --- 配置参数 --- MODEL_

yanchang 发布于 2025-10-10

ollama部署小模型

碎碎念 为了批量生产提示词,也有必要部署一个语言模型,之前搞过 分两种模式部署 手动 首先,確保您的系統是最新的: sudo apt update && sudo apt upgrade -y 3.2 安裝必要的依賴項 Ollama通常不需要額外的依賴項,但確保系統有curl工具: sudo apt

yanchang 发布于 2025-10-10

AI生成图像(项目二)

碎碎念 现在找到另一个质量更好一些的项目和模型,并且默认不带webui,可以更好的实现代码批量化生成图像 github地址:https://github.com/VectorSpaceLab/OmniGen2 开搞 Environment Setup ✅ Recommended Setup # 1.

yanchang 发布于 2025-10-10

AI生成图像

碎碎念 耗时三四天左右,前天折腾的AI生成视频现在是完全失败了,原因吗,当然也是很简单的,硬件性能实在是不足了,显存不停的溢出,两张2080ti目前来说的话还是实在是有点不太足够。没辙了,放弃了,等后面看着有更好的显卡再说吧。 现在折腾AI生成图像 使用Fooocus项目 github地址:http

yanchang 发布于 2025-10-10
上一页 下一页