合肥seo网站优化培训安装wordpress遇到的安装页面空白问题

张小明 2026/3/2 18:14:37
合肥seo网站优化培训,安装wordpress遇到的安装页面空白问题,谷歌外贸网站seo怎么做,买卖域名的网站Ollama是一款开源的本地大语言模型运行框架#xff0c;支持多种操作系统和Docker部署#xff0c;可在本地运行各种LLM模型#xff0c;确保数据隐私安全。文章详细介绍了安装方法、硬件要求、模型下载与运行、API调用及常见问题解决方案#xff0c;并展示了如何集成可视化工…Ollama是一款开源的本地大语言模型运行框架支持多种操作系统和Docker部署可在本地运行各种LLM模型确保数据隐私安全。文章详细介绍了安装方法、硬件要求、模型下载与运行、API调用及常见问题解决方案并展示了如何集成可视化工具如open-webui为用户提供完整的大模型本地部署与使用指南。ollama 是一个开源的本地大语言模型运行框架它提供了非常简单便捷的使用形式让用户可以十分方便的在本地机器上部署和运行大型语言模型从而实现免费离线的方式使用 LLM 能力并确保私有数据的隐私和安全性。1 ollama 安装ollama 支持多种操作系统包括 macOS、Windows、Linux 以及通过 Docker 容器运行。其安装、使用及模型下载非常简单可以简单概括为以下几步• 下载 ollama 安装程序并安装。• 启动 ollama执行命令下载和运行模型。如ollama run deepseek-r1:1.5b• 以命令行交互、API 调用、第三方应用接入等形式使用其服务。1.1 硬件要求ollama 本身对硬件要求并不高主要取决于运行模型的要求。基本建议你应该至少有 4 GB 的 RAM 来运行 1.5B 模型至少有 8 GB 的 RAM 来运行 7B 模型16 GB 的 RAM 来运行 13B 模型以及 32 GB 的 RAM 来运行 33B 模型。假若需要本地私有化部署具有实用性的模型应至少有独立显卡并有 4G 以上显存。纯 CPU 模式虽然也可以运行但生成速度很慢仅适用于本地开发调试体验一下。本人实测在Mac Studio 2023 版(Apple M2 Max 芯片12核、32G内存、30核显、1TB SSD)上运行deepseek:1.5b模型响应非常快可以较为流畅的运行deepseek-r1:32b及以下的模型。DeepSeek-r1 相关版本及大小参考参数版本模型大小建议CPU建议内存建议显存特点deepseek-r1:1.5b1.1GB4核4~8G4GB轻量级速度快、普通文本处理deepseek-r1:7b4.7G8核16G14GB性能较好硬件要求适中deepseek-r1:8b4.9GB8核16G14GB略强于 7b精度更高deepseek-r1:14b9GB12核32G26GB高性能擅长复杂任务如数学推理、代码生成deepseek-r1:32b20GB16核64G48GB专业级适合高精度任务deepseek-r1:70b43GB32核128G140GB顶级模型适合大规模计算和高复杂度任务deepseek-r1:671b404GB64核512G1342GB超大规模性能卓越推理速度快1.2 Windows \ macOS \ Linux 下安装 ollamaWindows 和 macOS 用户可访问如下地址下载安装文件并安装• 国内中文站下载http://ollama.org.cn/download/• 官方下载https://ollama.com/download/• github release 下载https://github.com/ollama/ollama/releases/Linux 用户可以执行如下命令一键安装curl -fsSL https://ollama.com/install.sh | bash安装完成后可以通过执行ollama --version命令查看 ollama 版本信息以验证是否安装成功。ollama 离线安装Windows 和 macOS 下直接复制安装文件到本地本进行安装即可。Linux 下的离线安装主要步骤参考如下mkdir -p /home/ollamacd /home/ollama# 查看服务器 CPU 信息获取其架构如x86_64lscpu# 访问如下地址下载对应架构的 ollama 安装包# https://github.com/ollama/ollama/releases/# - x86_64 CPU 选择下载 ollama-linux-amd64# - aarch64|arm64 CPU 选择下载 ollama-linux-arm64# 示例wget https://github.com/ollama/ollama/releases/download/v0.5.11/ollama-linux-amd64.tgz# 下载 安装脚本并放到 /home/ollama 目录下wget https://ollama.com/install.sh# 将 ollama-linux-amd64.tgz 和 install.sh 拷贝到需要安装的机器上如放到 /home/ollama 目录下# 然后执行如下命令tar -zxvf ollama-linux-amd64.tgzchmod x install.sh# 编辑 install.sh 文件找到如下内容curl --fail --show-error --location --progress-bar -o $TEMP_DIR/ollama https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}# 注释它并在其下增加如下内容cp ./ollama-linux-amd64 $TEMP_DIR/ollama# 执行安装脚本./install.sh# 模型的离线下载请参考下文模型导入部分1.3 基于 Docker 安装 ollama基于 Docker 可以使得 ollama 的安装、更新与启停管理更为便捷。首先确保已安装了 docker然后执行如下命令# 拉取镜像docker pull ollama/ollama# 运行容器CPU 模式docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama# 运行容器GPU 模式docker run --gpusall -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama# 进入容器 bash 下并下载模型docker exec -it ollama /bin/bash# 下载一个模型ollama pull deepseek-r1:8b也可以基于docker-compose进行启停管理。docker-compose.yml参考services: ollama: image:ollama/ollama container_name:ollama restart:unless-stopped ports: -11434:11434 volumes: -/data/ollama:/root/.ollama environment: # 允许局域网跨域形式访问API OLLAMA_HOST0.0.0.0:11434 OLLAMA_ORIGINS*1.4 修改 ollama 模型默认保存位置ollama下载的模型默认的存储目录如下• macOS:~/.ollama/models• Linux:/usr/share/ollama/.ollama/models• Windows:C:\Users\username\.ollama\models若默认位置存在磁盘空间告急的问题可以通过设置环境变量OLLAMA_MODELS修改模型存储位置。示例# macOS / Linux写入环境变量配置到 ~/.bashrc 文件中echo export OLLAMA_MODELS/data/ollama/models ~/.bashrcsource ~/.bashrc# Windows按 WINR 组合键并输入 cmd 打开命令提示符# 然后执行如下命令写入到系统环境变量中setx OLLAMA_MODELS D:\data\ollama\models如果已经下载过模型可以从上述默认位置将 models 目录移动到新的位置。对于 docker 安装模式则可以通过挂载卷的方式修改模型存储位置。1.5 使用基于 API 形式访问 ollama 服务ollama 安装完成并正常启动后可以通过命令行形式运行模型如ollama run deepseek-r1:1.5b并通过命令行交互的方式进行测试。此外也可以通过访问http://localhost:11434以 API 调用的形式调用。示例curl http://localhost:11434/api/generate -d { model: deepseek-r1:8b, stream: false, prompt: 你是谁}ollama API 文档参考• https://ollama.readthedocs.io/api/• https://github.com/ollama/ollama/blob/main/docs/api.md2 使用 ollama 下载和运行模型2.1 使用 ollama 命令行下载和运行模型执行如下命令下载并运行一个模型# 基本格式为ollama run model_name:size# 例如下载并运行 deepseek-r1 的 1.5b 模型# 如果下载模型速度开始较快后面变慢可以 kill 当前进程并重新执行ollama run deepseek-r1:1.5b运行成功则会进入命令行交互模式可以直接输入问题并获得应答反馈也可以通过 API 调用方式测试和使用。从如下地址可搜索 ollama 所有支持的模型• 中文站https://ollama.org.cn/search• 官方站https://ollama.com/search从 HF 和魔塔社区下载模型ollama 还支持从 HF 和魔塔社区下载第三方开源模型。基本格式为# 从 HF(https://huggingface.co) 下载模型的格式ollama run hf.co/{username}/{reponame}:latest# 示例ollama run hf.co/bartowski/Llama-3.2-1B-Instruct-GGUF:Q8_0# 从魔塔社区(https://modelscope.cn)下载模型的格式ollama run modelscope.cn/{username}/{model}# 示例ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUF:Q3_K_M2.2 使用 ollama create 导入本地模型通过ollama run和ollama pull命令均是从官方地址下载模型可能会遇到下载速度慢、下载失败等问题。ollama 支持从本地导入模型。我们可以从第三方下载模型文件并使用ollama create命令导入到 ollama 中。例如假若我们下载了deepseek-r1:8b模型文件并保存在/data/ollama/gguf/deepseek-r1-8b.gguf则可执行如下命令进行导入cd /data/ollama/ggufecho From ./deepeek-r1-8b.gguf modelfile-deepseek-r1-8bollama create deepseek-r1:8b -f modelfile-deepseek-r1-8b# 查看模型信息ollama listollama show deepseek-r1:8b# 运行模型(以命令行交互模式使用)ollama run deepseek-r1:8b相关文档参考• https://ollama.readthedocs.io/import/• https://ollama.readthedocs.io/modelfile/3 ollama 常用命令参考ollama 提供了丰富的命令行工具方便用户对模型进行管理。•ollama --help查看帮助信息。•ollama serve启动 ollama 服务。•ollama create model-name [-f Modelfile]根据一个 Modelfile 文件导入模型。•ollama show model-name:[size]显示某个模型的详细信息。•ollama run model-name:[size]运行一个模型。若模型不存在会先拉取它。•ollama stop model-name:[size]停止一个正在运行的模型。•ollama pull model-name:[size]拉取指定的模型。•ollama push model-name将一个模型推送到远程模型仓库。•ollama list列出所有模型。•ollama ps列出所有正在运行的模型。•ollama cp source-model-name new-model-name复制一个模型。•ollama rm model-name:[size]删除一个模型。4 ollama 安装使用常见问题及解决4.1 ollama 模型下载慢离线下载与安装模型通过 ollama 官方命令拉取模型可能会遇到网速慢、下载时间过长等问题。4.1.1 开始快后来慢间隔性重启下载由于模型文件较大下载过程中可能会遇到开始网速还可以后面变慢的情况。许多网友反馈退出然后重试则速度就可以上来了所以可以尝试通过每隔一段时间退出并重新执行的方式以保持较快的下载速率。以下是基于该逻辑实现的下载脚本注意将其中的deepseek-r1:7b替换为你希望下载的模型版本。Windows 下在 powershell 中执行while ($true) { $modelExists ollama list | Select-String deepseek-r1:7b if ($modelExists) { Write-Host 模型已下载完成 break } Write-Host 开始下载模型... $process Start-Process -FilePath ollama -ArgumentList run, deepseek-r1:7b -PassThru -NoNewWindow # 等待60秒 Start-Sleep -Seconds 60 try { Stop-Process -Id $process.Id -Force -ErrorAction Stop Write-Host 已中断本次下载准备重新尝试... } catch { Write-Host error }}macOS / Linux下在终端中执行#!/bin/bashwhiletrue; do # 检查模型是否已下载完成 modelExists$(ollama list | grep deepseek-r1:7b) if [ -n $modelExists ]; then echo模型已下载完成 break fi # 启动ollama进程并记录 echo开始下载模型... ollama run deepseek-r1:7b # 在后台启动进程 processId$! # 获取最近启动的后台进程的PID # 等待60秒 sleep 60 # 尝试终止进程 ifkill -0 $processId 2/dev/null; then kill -9 $processId# 强制终止进程 echo已中断本次下载准备重新尝试... else echo进程已结束无需中断 fidone4.1.2 通过网盘等第三方离线下载并导入 ollama 模型可以通过国内的第三方离线下载模型文件再导入到 ollama 中。详细参考 2.2 章节。deepseek-r1相关模型夸克网盘下载链接https://pan.quark.cn/s/7fa235cc64ef 提取码wasX也可以从 魔塔社区、HuggingFace 等大模型社区搜索并下载 stuff 格式的模型文件。例如• https://modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF/files• https://huggingface.co/unsloth/DeepSeek-R1-GGUF4.1.3 从国内大模型提供站下载模型ollama 支持从魔塔社区直接下载模型。其基本格式为ollama run modelscope.cn/{model-id}一个模型仓库可能包含多个模型可以指定到具体的模型文件名以只下载它。示例ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUF#ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUF:qwen2.5-3b-instruct-q3_k_m.gguf下载deepseek-r1模型命令参考# deepseek-r1:7bollama run modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF:DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf# deepseek-r1:14bollama run modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-14B-GGUF:Q4_K_M# deepseek-r1:32bollama run modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q4_K_M此外也可以从 HF 的国内镜像站https://hf-mirror.com查找和拉取模型方法与上述类似# 基本格式ollama run hf-mirror.com/{username}/{reponame}:{label}# 示例 - 拉取 deepseek-r1:7bollama run hf-mirror.com/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF:Q4_K_M4.2 ollama 服务设置允许局域网访问默认情况下 API 服务仅允许本机访问若需要允许局域网其他设备直接访问可修改环境变量OLLAMA_HOST为0.0.0.0并修改OLLAMA_ORIGINS为允许的域名或 IP 地址。环境变量设置示例# windows 命令提示符下执行setx OLLAMA_HOST 0.0.0.0:11434setx OLLAMA_ORIGINS *# macOS 终端下执行launchctl setenv OLLAMA_HOST 0.0.0.0:11434launchctl setenv OLLAMA_ORIGINS *特别注意•如果你是在云服务器等拥有公网IP的环境上部署请谨慎做此设置否则可能导致 API 服务被恶意调用。• 若需要局域网其他设备访问请确保防火墙等安全设置允许 11434 端口访问。• 若需要自定义访问端口号可通过环境变量OLLAMA_HOST设置如OLLAMA_HOST0.0.0.0:11435。4.3 为 ollama API 服务访问增加 API KEY 保护为云服务器部署的服务增加 API KEY 以保护服务如果你是通过云服务器部署那么需要特别注意服务安全避免被互联网工具扫描而泄露导致资源被第三方利用。可以通过部署 nginx 并设置代理转发以增加 API KEY 以保护服务同时需要屏蔽对 11434 端口的互联网直接访问形式。nginx配置server { # 用于公网访问的端口 listen 8434; # 域名绑定若无域名可移除 server_name your_domain.com; location / { # 验证 API KEY。这里的 your_api_key 应随便修改为你希望设置的内容 # 可通过 uuid 生成器工具随机生成一个https://tool.lzw.me/uuid-generator if ($http_authorization ! Bearer your_api_key) { return 403; } # 代理转发到 ollama 的 11434 端口 proxy_pass http://localhost:11434; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; }}5 集成可视化工具在部署了 ollama 并拉取了 deepseek 等模型后即可通过命令行交互和 API 服务方式使用但使用起来并不方便。开源社区中有许多大模型相关的可视化工具如 open-webui、chat-ui、cherry-studio、AnythingLLM 等可以方便地集成 ollama API 服务提供图形化界面使用以实现聊天机器人、问答知识库等多元化应用。在官方文档中列举了大量较为流行的工具应用https://ollama.readthedocs.io/quickstart/#web我们后续会选择其中较为典型的工具进行集成和介绍。5.1 示例基于 docker 部署 open-webui 并配置集成 ollama 服务Open WebUI 是一个开源的大语言模型项目通过部署它可以得到一个纯本地运行的基于浏览器访问的 Web 服务。它提供了可扩展、功能丰富、用户友好的自托管 AI Web 界面支持各种大型语言模型LLM运行器可以通过配置形式便捷的集成 ollama、OpenAI 等提供的 API。通过 Open WebUI 可以实现聊天机器人、本地知识库、图像生成等丰富的大模型应用功能。在开始之前请确保你的系统已经安装了 docker。接着拉取大语言模型deepseek-r1:8b和用于 RAG 构建本地知识库的嵌入模型bge-m3ollama pull deepseek-r1:8bollama pull bge-m3然后新建文件docker-compose.yml内容参考services: open-webui: image:ghcr.io/open-webui/open-webui:main environment: -OLLAMA_API_BASE_URLhttp://ollama:11434/api -HF_ENDPOINThttps://hf-mirror.com -WEBUI_NAMELZW的LLM服务 # 禁用 OPENAI API 的请求。若你的网络环境无法访问 openai请务必设置该项为 false # 否则在登录成功时会因为同时请求了 openai 接口而导致白屏时间过长 -ENABLE_OPENAI_APIfalse # 设置允许跨域请求服务的域名。* 表示允许所有域名 -CORS_ALLOW_ORIGIN* # 开启图片生成 -ENABLE_IMAGE_GENERATIONtrue # 默认模型 -DEFAULT_MODELSdeepseek-r1:8b # RAG 构建本地知识库使用的默认嵌入域名 -RAG_EMBEDDING_MODELbge-m3 ports: -8080:8080 volumes: -./open_webui_data:/app/backend/data extra_hosts: # - host.docker.internal:host-gateway这里需注意environment环境变量部分的自定义设置。许多设置也可以通过登录后在 web 界面进行修改。在该目录下执行该命令以启动服务docker-compose up -d。成功后即可通过浏览器访问http://localhost:8080。服务镜像更新参考# 拉取新镜像docker-compose pull# 重启服务docker-compose up -d --remove-orphans# 清理镜像docker image prune• open-webui 详细文档参考https://docs.openwebui.com/getting-started/env-configuration可选开启“联网搜索”功能操作路径设置 - 联网搜索 - 启用联网搜索当前已支持接入的联网搜索引擎中在不需要魔法上网的情况下有 bing 和 bocha 可以选择接入。基本只需要前往注册并获取 API KEY 回填到这里即可。如果需要保护隐私数据请不要开启并配置该功能。总结与参考通过以上内容我们了解了 ollama 在国内环境下的安装使用方法并介绍了因为国内网络特色导致安装过程可能会遇到的常见问题及解决办法。希望这些内容对你有所帮助如果你有任何问题或建议欢迎在评论区留言交流。​最后我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我整理出这套 AI 大模型突围资料包✅AI大模型学习路线图✅Agent行业报告✅100集大模型视频教程✅大模型书籍PDF✅DeepSeek教程✅AI产品经理入门资料完整的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】​​为什么说现在普通人就业/升职加薪的首选是AI大模型人工智能技术的爆发式增长正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议到全国两会关于AI产业发展的政策聚焦再到招聘会上排起的长队AI的热度已从技术领域渗透到就业市场的每一个角落。智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200%远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。​​资料包有什么①从入门到精通的全套视频教程⑤⑥包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图还有视频解说全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤ 这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频教程由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌​​​​如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能 ‌突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】**​
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

备案添加网站搭建企业网站宽带多大

① WisPaper(文献聚类 术语辅助) 官网:https://www.wispaper.ai 帮助快速理解陌生领域的核心概念和研究主题。 ② Elicit 自动列出最相关论文和方法,为跨学科快速扫文献提供便利。 ③ Explainpaper 逐段解释论文内容&#xff0c…

张小明 2026/1/21 11:56:28 网站建设

怎么做盗文网站怎么开网店不需要自己上货

第一章:你还在忍受VSCode远程延迟?性能优化势在必行远程开发已成为现代软件工程的重要实践,但使用 VSCode 远程连接服务器时频繁出现的延迟问题严重影响了编码效率。高延迟不仅导致代码补全卡顿、文件保存缓慢,甚至会使调试过程变…

张小明 2026/1/21 11:55:57 网站建设

青岛网站快速备案厚瑜网站建设

miniaudio音频库:C语言开发者的终极音频处理解决方案 【免费下载链接】miniaudio Audio playback and capture library written in C, in a single source file. 项目地址: https://gitcode.com/gh_mirrors/mi/miniaudio miniaudio是一个功能强大的单文件C语…

张小明 2026/1/21 11:54:56 网站建设

东莞附近公司做网站建设多少钱搭建个人博客要钱吗

终极指南:使用urdf-viz快速可视化机器人模型 【免费下载链接】urdf-viz 项目地址: https://gitcode.com/gh_mirrors/ur/urdf-viz 在机器人开发过程中,你是否曾经为复杂的URDF文件调试而头疼?🤔 想要一个简单直观的方式来查…

张小明 2026/1/21 11:54:25 网站建设

茂易网站建设百度爱采购官网

摘要 对于室内空气净化器控制系统来说,该工艺设计主要为对室内的空气进行温度检测、湿度检测以及甲醛浓度检测,如果温度、湿度或者甲醛浓度都高于设定上限值时,将自动启动净化器变频器,实现对室内的空气净化功能,系统设…

张小明 2026/1/21 11:53:54 网站建设

昆明大型网站建设费用游戏推广群

快速体验 打开 InsCode(快马)平台 https://www.inscode.net输入框内输入如下内容: 创建企业级VS Code汉化管理系统,包含:1. 中央控制台管理所有终端汉化状态 2. 自定义技术术语词典(如Git相关术语保持英文)3. 增量更新…

张小明 2026/1/21 11:53:23 网站建设