x-jeff blog

Make progress every day.

【机器学习基础】第五十四课:[计算学习理论]Rademacher复杂度

Rademacher复杂度

【机器学习基础】系列博客为参考周志华老师的《机器学习》一书,自己所做的读书笔记。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Rademacher复杂度 基于VC维的泛化误差界是分布无关、数据独立的,也就是说,对任何数据分布都成立。这使得基于VC维的可学习性分析结果具有一定的“普适性”;但从另一方面来说,由于没有考虑数据自身,基于VC维得到的泛化误差界通常比较“...

【CUDA编程】【17】【3.Programming Interface】【3.2.CUDA Runtime】【3.2.14.Texture and Surface Memory】

Texture Memory,Surface Memory,CUDA Arrays,Read/Write Coherency

【CUDA编程】系列博客参考NVIDIA官方文档“CUDA C++ Programming Guide(v12.6)”。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Texture and Surface Memory CUDA支持GPU的一个纹理硬件子集,用于图形访问纹理内存(texture memory)和表面内存(surface memory)。相比于全局...

【CUDA编程】【16】【3.Programming Interface】【3.2.CUDA Runtime】【3.2.13.Call Stack】

Call Stack

【CUDA编程】系列博客参考NVIDIA官方文档“CUDA C++ Programming Guide(v12.6)”。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Call Stack 在计算能力2.x及以上的device中,可以使用cudaDeviceGetLimit()查询调用栈(call stack)的大小,并使用cudaDeviceSetLimit()...

【CUDA编程】【15】【3.Programming Interface】【3.2.CUDA Runtime】【3.2.12.Error Checking】

Error Checking

【CUDA编程】系列博客参考NVIDIA官方文档“CUDA C++ Programming Guide(v12.6)”。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Error Checking 同步函数在任务完成后才返回,这意味着host可以在函数返回时确信任务已经成功或失败。异步函数(见:Asynchronous Concurrent Execution)会...

【CUDA编程】【14】【3.Programming Interface】【3.2.CUDA Runtime】【3.2.11.Interprocess Communication】

Interprocess Communication,IPC

【CUDA编程】系列博客参考NVIDIA官方文档“CUDA C++ Programming Guide(v12.6)”。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Interprocess Communication 由host线程创建的任何device内存指针或event句柄都可以被同一进程中的其他线程直接引用。然而,它在该进程之外是无效的,所以无法被属于不...

【程序是怎样跑起来的】第12章:让计算机“思考”

猜拳游戏程序,随机数

博客为参考《程序是怎样跑起来的》一书,自己所做的读书笔记。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.作为“工具”的程序和为了“思考”的程序 👉第12章热身问答: 用计算机进行的模拟试验称为什么? 计算机模拟。计算机模拟是指用软件来进行实际试验。 伪随机数指的是什么? 通过公式产生的伪随机...

【C++并发编程】【2】【Hello, world of concurrency in C++!】Why use concurrency?

并发的优缺点

【C++并发编程】系列博客为参考《C++ Concurrency IN ACTION (SECOND EDITION)》一书,自己所做的读书笔记。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Why use concurrency? 在应用程序中使用并发有两个主要原因: 关注点分离(separation of concerns) 性能(perform...

【CUDA编程】【13】【3.Programming Interface】【3.2.CUDA Runtime】【3.2.10.Unified Virtual Address Space】

Unified Virtual Address Space

【CUDA编程】系列博客参考NVIDIA官方文档“CUDA C++ Programming Guide(v12.6)”。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Unified Virtual Address Space 当应用程序以64位进程运行时,host和所有device(计算能力2.0以上)将共享一个单一的地址空间。通过CUDA API调用在该虚拟地...

【CUDA编程】【12】【3.Programming Interface】【3.2.CUDA Runtime】【3.2.9.Multi-Device System】

Device Enumeration,Device Selection,Stream and Event Behavior,Peer-to-Peer Memory Access,Peer-to-Peer Memory Copy

【CUDA编程】系列博客参考NVIDIA官方文档“CUDA C++ Programming Guide(v12.6)”。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Device Enumeration host系统可以包含多个device。以下代码展示了如何枚举这些device、查询它们的属性并确定支持CUDA的device数量。 1 2 3 4 5 6 7...

【CUDA编程】【11】【3.Programming Interface】【3.2.CUDA Runtime】【3.2.8.Asynchronous Concurrent Execution】

Concurrent Execution between Host and Device,Concurrent Kernel Execution,Overlap of Data Transfer and Kernel Execution,Concurrent Data Transfers,Streams,Programmatic Dependent Launch and Synchronization,CUDA Graphs,Events,Synchronous Calls

【CUDA编程】系列博客参考NVIDIA官方文档“CUDA C++ Programming Guide(v12.6)”。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Asynchronous Concurrent Execution CUDA将以下操作视为独立任务,这些任务可以并发执行: 在host上的计算。 在device上的计算。 从host...