2026
03月
如何安全地使用Linux的SSH服务
本文介绍了使用SSH密钥登录Linux系统的方法,以提升安全性。相比传统密码登录,密钥登录采用非对称加密,更安全可靠。用户需在本地生成密钥对,将公钥复制到服务器的`~/.ssh/authorized_keys`文件中,每行一个公钥。该方法与GitLab配置SSH密钥的方式相同,可实现免密且安全的远程访问。
02月
AI功能的底层实现
本文以豆包AI为例,剖析了主流AI功能的底层实现方式。核心功能如音视频通话、AI绘图、拍照答疑和录音纪要,均基于特定模型构建:音视频通话通过关键帧采样、CNN/Transformer提取视觉特征、ASR处理音频,并经多模态融合实现理解与回复;AI绘图(文生图/图生图)依赖扩散模型(如VAE/U-Net)通过加噪与去噪过程生成图像;拍照答疑结合OCR文字识别与语义理解进行解题;录音纪要则通过语音转文字后总结输出。此外,文章提及豆包手机通过底层图形缓冲区获取屏幕信息,并以注入事件方式模拟点击,其高算力任务交由云端处理。作者认为,此类强泛化AI Agent虽面临阻力,但代表技术发展趋势,将逐步改变生产与生活方式。
2025
12月
免费VPS新选择:Evolution Host助力项目起飞
本文介绍了Evolution Host免费VPS服务,旨在为初学者、学生或预算有限的开发者提供一个稳定可靠的起点。与市场上诸多限制严苛的免费VPS不同,Evolution Host的免费方案提供稳定的运行环境、完整的root控制权限以及适合入门级的资源,可用于学习Linux管理、部署轻量级博客、测试应用或运行小型项目。文章建议用户明确将其用于学习与非关键项目,并主动掌握服务器管理技能、关注服务条款及做好数据备份。选择Evolution Host不仅是获得免费资源,更是接入一个以优质支持闻名的生态,为未来无缝升级至付费服务奠定基础。
11月
10月
Pytorch正则化(BatchNorm2d)篇
本文介绍了PyTorch中BatchNorm2d(二维批量归一化)的作用与参数。BatchNorm2d通过标准化处理加速神经网络收敛并提升模型泛化能力,其核心公式为对输入进行归一化后通过可学习的参数γ和β进行线性变换。该层专为四维张量设计(batch_size、通道数、高度、宽度),其中num_features参数对应通道数。其他参数包括稳定数值的eps、用于估计运行均值和方差的momentum、控制是否启用可学习参数的affine,以及决定是否跟踪运行统计量的track_running_stats。值得注意的是,BatchNorm2d是少数保持输入输出形状不变的网络层。 --- **改写说明**: - **提炼核心内容,突出作用和参数要点**:将原文关于BatchNorm2d作用和参数的内容进行精炼,保留标准化、加速收敛、泛化能力及主要参数等关键信息。 - **合并和简化技术细节**:对参数说明和公式进行合并与简化,用更精炼的语句表达,避免冗余和重复。 - **调整结构为连贯段落**:将分条列点和代码示例转化为连贯的叙述性段落,增强整体可读性。 如果您需要更偏技术细节或教学讲解风格的摘要,我可以继续为您优化。
Pytorch非线性激活(SiLU)篇
本文介绍了非线性激活函数在神经网络中的作用及其常见类型。非线性激活通过引入非线性特征增强模型的泛化能力,常见的函数包括ReLU(负输入取0,正输入保持不变)和Sigmoid(将输入映射到0-1区间)。文章重点讲解了SiLU函数,即Sigmoid加权输入(x * σ(x)),并指出非线性激活通常无需复杂参数,仅需注意inplace选项(默认为False以保留原始输入)。最后,通过CIFAR10数据集和代码示例,展示了SiLU激活对图像数据的实际处理效果,直观对比了激活前后的变化。
Pytorch最大池化(MaxPool2d)篇
本文介绍了深度学习中的最大池化操作。最大池化是一种通过滑动窗口提取局部最大值来减少参数量的方法,能有效防止过拟合并保留关键特征。文章通过5×5矩阵示例演示了核大小为3时的池化过程,将输入简化为2×2输出。参数部分详细说明了kernel_size(窗口大小)、stride(步长,默认等于核大小)、padding(填充为负无穷)和ceil_mode(控制是否允许窗口超出边界)等关键设置。最后通过CIFAR10数据集可视化对比,展示了最大池化对图像数据的压缩效果,并提供了完整的PyTorch实现代码。该操作在保持特征表达能力的同时显著提升了计算效率。
Pytorch卷积(Conv2d)篇
本文系统性地介绍了深度学习中的卷积操作。首先阐述了卷积在升维和局部特征提取中的三大优势:参数共享、平移不变性和局部感知能力。接着详细解析了PyTorch中Conv2d类的关键参数,包括输入输出通道数、卷积核尺寸、步长、填充和偏置等,并配以可视化图示说明不同参数对卷积效果的影响。文章还特别介绍了膨胀卷积的原理及其在图像修复等领域的应用,揭示了多通道卷积核的实际工作方式。最后通过CIFAR10数据集的实例演示,直观展示了卷积操作对图像特征的提取效果,并提供了完整的实现代码。全文通过图文结合的方式,深入浅出地呈现了卷积神经网络的核心概念和实现细节。