LINUX.ORG.RU

История изменений

Исправление grem, (текущая версия) :

Upd3: мдя.... почему-то nvidia очень усердно прячет информацию о поддержке двойной точности в своих продуктах (в спецификациях и описаниях на оф. сайте ничего про это нет). Еле нашёл, что всё-таки поддерживает её в ряде карт начиная с «ядер» GT200 + Cuda 3.0 (gtx260 - gtx295), так как у них есть поддержка compute capability 1.3, и более новых продуктов (видимо, достаточно старших в серии):

цитата

Q: What is the precision of mathematical operations in CUDA?

All the current range of NVIDIA GPUs and since GT200 have double precision floating point. See the programming guide for more details. All compute-capable NVIDIA GPUs support 32-bit integer and single precision floating point arithmetic. They follow the IEEE-754 standard for single-precision binary floating-point arithmetic, with some minor differences.

Только выглядит эта фраза немного загадочно, после дополнительного упоминания в ней про одинарную точность о_О

Исходная версия grem, :

Upd3: мдя.... почему-то nvidia очень усердно прячет информацию о поддержке двойной точности в своих продуктах (в спецификациях и описаниях на оф. сайте ничего про это нет). Еле нашёл, что всё-таки поддерживает её в ряде карт начиная с «ядер» GT200 + Cuda 3.0 (gtx260 - gtx295), так как у них есть поддержка compute capability 1.3, и более новых продуктов (видимо, достаточно старших в серии):

цитата

Q: What is the precision of mathematical operations in CUDA?

All the current range of NVIDIA GPUs and since GT200 have double precision floating point. See the programming guide for more details. All compute-capable NVIDIA GPUs support 32-bit integer and single precision floating point arithmetic. They follow the IEEE-754 standard for single-precision binary floating-point arithmetic, with some minor differences.