全站共发布文章 16 篇
全站共发布文章 16 篇
2026
2025
2026-03-03 1 contributions
2026-02-05 2 contributions
2026
2025
2025-11-17 2 contributions
2025-10-24 2 contributions
2025-10-23 1 contributions
2025-10-21 1 contributions
2025-09-17 2 contributions
2025-09-16 1 contributions
2025-08-28 1 contributions
2025-08-27 1 contributions

UART

文章

2026

03月

如何安全地使用Linux的SSH服务

本文介绍了使用SSH密钥登录Linux系统的方法,以提升安全性。相比传统密码登录,密钥登录采用非对称加密,更安全可靠。用户需在本地生成密钥对,将公钥复制到服务器的`~/.ssh/authorized_keys`文件中,每行一个公钥。该方法与GitLab配置SSH密钥的方式相同,可实现免密且安全的远程访问。

0
8

02月

AI迁移与训练评估

本文主要介绍了AI迁移和AI训练评估两大主题。AI迁移指利用预训练模型在新任务中快速发挥作用,无需从零训练,具体包括表征迁移、参数迁移、任务迁移和Prompt迁移四种类型。AI训练评估则是通过一系列指标衡量模型表现并进行针对性优化,指标涵盖基础性能(如准确率、损失值)、高级任务指标(如BLEU、FID)以及工程应用指标(如推理速度、泛化能力)。文章还分析了常见问题(如Loss高但准确率低)及其调整方法(如增加模型复杂度、数据增强),强调评估与优化是一个持续迭代的过程。

0
8

AI功能的底层实现

本文以豆包AI为例,剖析了主流AI功能的底层实现方式。核心功能如音视频通话、AI绘图、拍照答疑和录音纪要,均基于特定模型构建:音视频通话通过关键帧采样、CNN/Transformer提取视觉特征、ASR处理音频,并经多模态融合实现理解与回复;AI绘图(文生图/图生图)依赖扩散模型(如VAE/U-Net)通过加噪与去噪过程生成图像;拍照答疑结合OCR文字识别与语义理解进行解题;录音纪要则通过语音转文字后总结输出。此外,文章提及豆包手机通过底层图形缓冲区获取屏幕信息,并以注入事件方式模拟点击,其高算力任务交由云端处理。作者认为,此类强泛化AI Agent虽面临阻力,但代表技术发展趋势,将逐步改变生产与生活方式。

0
7

2025

12月

免费VPS新选择:Evolution Host助力项目起飞

免费VPS新选择:Evolution Host助力项目起飞

本文介绍了Evolution Host免费VPS服务,旨在为初学者、学生或预算有限的开发者提供一个稳定可靠的起点。与市场上诸多限制严苛的免费VPS不同,Evolution Host的免费方案提供稳定的运行环境、完整的root控制权限以及适合入门级的资源,可用于学习Linux管理、部署轻量级博客、测试应用或运行小型项目。文章建议用户明确将其用于学习与非关键项目,并主动掌握服务器管理技能、关注服务条款及做好数据备份。选择Evolution Host不仅是获得免费资源,更是接入一个以优质支持闻名的生态,为未来无缝升级至付费服务奠定基础。

11月

Debian12安装官方仓库NVIDIA驱动

本文介绍了在Debian系统中使用官方仓库安装NVIDIA显卡驱动的完整流程。首先通过APT更新并安装驱动包,随后逐步生成RSA密钥、自签名证书,并将其转换为DER格式以供MOK使用。接着导入MOK并签名NVIDIA模块,最后重启系统并在MOK界面完成认证。安装完成后,可通过运行`nvidia-smi`命令验证驱动是否正常工作。该方法适用于通过官方仓库安全安装并启用NVIDIA驱动的场景。

0
14

10月

Pytorch正则化(BatchNorm2d)篇

本文介绍了PyTorch中BatchNorm2d(二维批量归一化)的作用与参数。BatchNorm2d通过标准化处理加速神经网络收敛并提升模型泛化能力,其核心公式为对输入进行归一化后通过可学习的参数γ和β进行线性变换。该层专为四维张量设计(batch_size、通道数、高度、宽度),其中num_features参数对应通道数。其他参数包括稳定数值的eps、用于估计运行均值和方差的momentum、控制是否启用可学习参数的affine,以及决定是否跟踪运行统计量的track_running_stats。值得注意的是,BatchNorm2d是少数保持输入输出形状不变的网络层。 --- **改写说明**: - **提炼核心内容,突出作用和参数要点**:将原文关于BatchNorm2d作用和参数的内容进行精炼,保留标准化、加速收敛、泛化能力及主要参数等关键信息。 - **合并和简化技术细节**:对参数说明和公式进行合并与简化,用更精炼的语句表达,避免冗余和重复。 - **调整结构为连贯段落**:将分条列点和代码示例转化为连贯的叙述性段落,增强整体可读性。 如果您需要更偏技术细节或教学讲解风格的摘要,我可以继续为您优化。

0
7

Pytorch非线性激活(SiLU)篇

本文介绍了非线性激活函数在神经网络中的作用及其常见类型。非线性激活通过引入非线性特征增强模型的泛化能力,常见的函数包括ReLU(负输入取0,正输入保持不变)和Sigmoid(将输入映射到0-1区间)。文章重点讲解了SiLU函数,即Sigmoid加权输入(x * σ(x)),并指出非线性激活通常无需复杂参数,仅需注意inplace选项(默认为False以保留原始输入)。最后,通过CIFAR10数据集和代码示例,展示了SiLU激活对图像数据的实际处理效果,直观对比了激活前后的变化。

0
19

Pytorch最大池化(MaxPool2d)篇

本文介绍了深度学习中的最大池化操作。最大池化是一种通过滑动窗口提取局部最大值来减少参数量的方法,能有效防止过拟合并保留关键特征。文章通过5×5矩阵示例演示了核大小为3时的池化过程,将输入简化为2×2输出。参数部分详细说明了kernel_size(窗口大小)、stride(步长,默认等于核大小)、padding(填充为负无穷)和ceil_mode(控制是否允许窗口超出边界)等关键设置。最后通过CIFAR10数据集可视化对比,展示了最大池化对图像数据的压缩效果,并提供了完整的PyTorch实现代码。该操作在保持特征表达能力的同时显著提升了计算效率。

0
20

Pytorch卷积(Conv2d)篇

本文系统性地介绍了深度学习中的卷积操作。首先阐述了卷积在升维和局部特征提取中的三大优势:参数共享、平移不变性和局部感知能力。接着详细解析了PyTorch中Conv2d类的关键参数,包括输入输出通道数、卷积核尺寸、步长、填充和偏置等,并配以可视化图示说明不同参数对卷积效果的影响。文章还特别介绍了膨胀卷积的原理及其在图像修复等领域的应用,揭示了多通道卷积核的实际工作方式。最后通过CIFAR10数据集的实例演示,直观展示了卷积操作对图像特征的提取效果,并提供了完整的实现代码。全文通过图文结合的方式,深入浅出地呈现了卷积神经网络的核心概念和实现细节。

0
22
1 2

欢迎来到Henry的站点,为您导航全站动态

18 文章数
4 分类数
1 评论数
5标签数