LINUX.ORG.RU
ФорумTalks

35 лет назад Гвидо ван Россум написал в сети Usenet: «This is Python»...

 


0

2

Python 0.9.1 part 01/21:

Guido van Rossum guido at cwi.nl
Wed Feb 20 04:35:26 AEST 1991
Previous message (by thread): unbatcher out of sync?
Next message (by thread): Python 0.9.1 part 03/21
Messages sorted by: [ date ] [ thread ] [ subject ] [ author ]

: This is a shell archive.
: Extract with 'sh this_file'.
: Extract this part first since it makes all directories
echo 'Start of pack.out, part 01 out of 21:'
echo -n 'Making directories ... '
err="no"
test -d 'demo' || mkdir 'demo' || err="yes"
test -d 'demo/scripts' || mkdir 'demo/scripts' || err="yes"
test -d 'demo/sgi' || mkdir 'demo/sgi' || err="yes"
test -d 'demo/sgi/audio' || mkdir 'demo/sgi/audio' || err="yes"
test -d 'demo/sgi/audio_stdwin' || mkdir 'demo/sgi/audio_stdwin' || err="yes"
test -d 'demo/sgi/gl' || mkdir 'demo/sgi/gl' || err="yes"
test -d 'demo/sgi/gl_panel' || mkdir 'demo/sgi/gl_panel' || err="yes"
test -d 'demo/sgi/gl_panel/apanel' || mkdir 'demo/sgi/gl_panel/apanel' || err="yes"
test -d 'demo/sgi/gl_panel/flying' || mkdir 'demo/sgi/gl_panel/flying' || err="yes"
test -d 'demo/sgi/gl_panel/nurbs' || mkdir 'demo/sgi/gl_panel/nurbs' || err="yes"
test -d 'demo/sgi/gl_panel/twoview' || mkdir 'demo/sgi/gl_panel/twoview' || err="yes"
test -d 'demo/stdwin' || mkdir 'demo/stdwin' || err="yes"
test -d 'doc' || mkdir 'doc' || err="yes"
test -d 'lib' || mkdir 'lib' || err="yes"
test -d 'src' || mkdir 'src' || err="yes"
echo 'done'
if test "$err" = "yes"
then echo "didn't make it."
fi
if test -s 'README'
then echo '*** I will not over-write existing file README'
else
echo 'x - README'
sed 's/^X//' > 'README' << 'EOF'
This is Python, an extensible interpreted programming language that
combines remarkable power with very clear syntax.

This is version 0.9 (the first beta release), patchlevel 1.

Python can be used instead of shell, Awk or Perl scripts, to write
prototypes of real applications, or as an extension language of large
systems, you name it.  There are built-in modules that interface to
the operating system and to various window systems: X11, the Mac
window system (you need STDWIN for these two), and Silicon Graphics'
GL library.  It runs on most modern versions of UNIX, on the Mac, and
I wouldn't be surprised if it ran on MS-DOS unchanged.  I developed it
mostly on an SGI IRIS workstation (using IRIX 3.1 and 3.2) and on the
Mac, but have tested it also on SunOS (4.1) and BSD 4.3 (tahoe).

Building and installing Python is easy (but do read the Makefile).
A UNIX style manual page and extensive documentation (in LaTeX format)
are provided.  (In the beta release, the documentation is still under
development.)

Please try it out and send me your comments (on anything -- the
language design, implementation, portability, installation,
documentation) and the modules you wrote for it, to make the first
real release better.  If you needed to hack the source to get it to
compile and run on a particular machine, send me the fixes -- I'll try
to incorporate them into the next patch.  If you can't get it to work
at all, send me a *detailed* description of the problem and I may look
into it.

If you want to profit of the X11 or Mac window interface, you'll need
STDWIN.  This is a portable window system interface by the same
author.  The versions of STDWIN floating around on some archives are
not sufficiently up-to-date for use with Python.  I will distribute
the latest and greatest STDWIN version at about the same time as Python.

I am the author of Python:

	Guido van Rossum
	CWI, dept. CST
	Kruislaan 413
	1098 SJ  Amsterdam
	The Netherlands

	E-mail: guido at cwi.nl

The Python source is copyrighted, but you can freely use and copy it
as long as you don't change or remove the copyright:

/***********************************************************
Copyright 1991 by Stichting Mathematisch Centrum, Amsterdam, The
Netherlands.
# Fancy NURBS demo.  Require Z buffer and Panel Library.

from gl import *
from GL import *
from DEVICE import *
from nurbsdata import *
import panel

#
# flags = trim_f, invis_f, cpvis_f, tpvis_f, axvis_f, freeze_f
#
TRIM	= 0
VIS	= 1
CPVIS	= 2
TPVIS	= 3
AXVIS	= 4
FREEZE	= 5
flags = [0, 1, 0, 0, 0, 0]

def draw_axis () :
	cpack (0x0)
	zero = (0.0, 0.0, 0.0)
	#
	one = (1.0, 0.0, 0.0)
	smallline (zero, one)
	cmov (1.0, 0.0, 0.0)
	charstr ('x')
	#
	one = (0.0, 1.0, 0.0)
	smallline (zero, one)
	cmov (0.0, 1.0, 0.0)
	charstr ('y')
	#
	one = (0.0, 0.0, 1.0)
	smallline (zero, one)
	cmov (0.0, 0.0, 1.0)
	charstr ('z')

DELTA = 0.1

def cross (p) :
	p0 = [p[0], p[1], p[2]]
	p1 = [p[0], p[1], p[2]]
	for i in range (0, 3) :
		p0[i] = p0[i] + DELTA
		p1[i] = p1[i] - DELTA
		smallline (p0, p1)
		p0[i] = p0[i] - DELTA
		p1[i] = p1[i] + DELTA

def smallline (p0, p1) :
	bgnline ()
	v3f (p0)
	v3f (p1)
	endline ()

def draw_pts (pnts, color) :
	linewidth (2)
	cpack (color)
	for i in pnts :
		cross (i)

def init_windows():
	foreground()
	wid = winopen('nurbs')
	wintitle('NURBS Surface')
	doublebuffer()
	RGBmode()
	gconfig()
	lsetdepth(0x000, 0x7fffff)
	zbuffer( TRUE )

def init_view():
	mmode(MPROJECTION)
	ortho( -5., 5., -5., 5., -5., 5. )
	#
	mmode(MVIEWING)
	loadmatrix(idmat)
	#
	lmbind(MATERIAL, 1)

def set_scene(flags):
	#
	lmbind(MATERIAL, 0)
	RGBcolor(150,150,150)
	lmbind(MATERIAL, 1)
	clear()
	zclear()
	#
	if not flags[FREEZE] :
		rotate( 100, 'y' )
		rotate( 100, 'z' )

def draw_trim_surface(flags):
	pnts = ctlpoints
	if flags[VIS] :
		bgnsurface()
		nurbssurface(surfknots,surfknots,pnts,ORDER,ORDER,N_XYZ)
		if flags[TRIM]:
			bgntrim()
			nurbscurve(trimknots,trimpoints,ORDER-1,N_STW)
			endtrim()
		endsurface()
	#
	if flags[CPVIS] :
		for i in pnts :
			draw_pts (i, RED)
	#
	if flags[TPVIS] :
		tpts = trimpoints
		draw_pts (tpts, YELLOW)
	#
	if flags[AXVIS] :
		draw_axis ()
	#
	swapbuffers()

def make_lights():
	lmdef(DEFLMODEL,1,[])
	lmdef(DEFLIGHT,1,[])
	#
	# define material #1
	#
	a = []
	a = a + [EMISSION, 0.0, 0.0, 0.0]
	a = a + [AMBIENT,  0.1, 0.1, 0.1]
	a = a + [DIFFUSE,  0.6, 0.3, 0.3]
	a = a + [SPECULAR,  0.0, 0.6, 0.0]
	a = a + [SHININESS, 2.0]
	a = a + [LMNULL]
	lmdef(DEFMATERIAL, 1, a)
	#
	# turn on lighting
	#
	lmbind(LIGHT0, 1)
	lmbind(LMODEL, 1)

def main():
	init_windows()
	make_lights()
	init_view()
	#
	panel.needredraw()
	panels = panel.defpanellist('nurbs.s')
	p = panels[0]
	#
	def cbtrim (a) :
		flags[TRIM:TRIM+1] = [int (a.val)]
	p.trim.upfunc = cbtrim
	#
	def cbquit (a) :
		import sys
		sys.exit (1)
	p.quit.upfunc = cbquit
	#
	def cbmotion (a) :
		flags[FREEZE:FREEZE+1] = [int (a.val)]
	p.motion.upfunc = cbmotion
	#
	def cbxyzaxis (a) :
		flags[AXVIS:AXVIS+1] = [int (a.val)]
	p.xyzaxis.upfunc = cbxyzaxis
	#
	def cbtrimpnts (a) :
		flags[TPVIS:TPVIS+1] = [int (a.val)]
	p.trimpnts.upfunc = cbtrimpnts
	#
	def cbcntlpnts (a) :
		flags[CPVIS:CPVIS+1] = [int (a.val)]
	p.cntlpnts.upfunc = cbcntlpnts
	#
	def cbnurb (a) :
		flags[VIS:VIS+1] = [int (a.val)]
	p.nurb.upfunc = cbnurb
	#
	set_scene(flags)
	setnurbsproperty( N_ERRORCHECKING, 1.0 )
	setnurbsproperty( N_PIXEL_TOLERANCE, 50.0 )
	draw_trim_surface(flags)
	#
	while 1:
		act = panel.dopanel()
		#
		wid =  panel.userredraw ()
		if wid :
			winset (wid)
			reshapeviewport()
			set_scene(flags)
			draw_trim_surface(flags)
		#
		set_scene(flags)
		draw_trim_surface(flags)

main()
★★★★★
Ответ на: комментарий от byko3y

Я не помню, чтобы они когда-то были супер-пупер умные, в любом случае.

Они и не были умными. Они были простыми и предсказуемыми. Но при этом точность была порой выше, чем у нейронок.

В KNN мы просто храним какую-то информацию по всем картинкам обучающей выборки и в цикле ищем наибольшее совпадение с классифицируемой картинкой с помощью какой-то функции. Потом берём K наиболее близких картинок и смотрим их ключи, наиболее часто встречающийся ключ присваиваем тестовой картинке.

Для примера, можно взять датасет MNIST, для всех картинок провести бинаризацию и как одномерный массив битов каждую картинку засунуть в свой биг инт. И такие преобразованные картинки держать в памяти вместе с ответами и в цикле сравнивать с тестовой картинкой, чтобы найти минимальное расхождение по XOR. Такой примитивный способ даст точность распознавания 96,63% при скорости около 20 мс на не самом сильном процессоре. «Обучение» (преобразование картинок в биг инт) займет пару десятков секунд, может минуту (зависит от вида, в котором хранится датасет). Вот это у нас будет примитивный KNN.

Если не тупо накладывать картинки на шаблоны, а выравнивать по центру и сравнивать контуры, то точность будет выше.

Казалось бы, примитив и прошлый век. Но вот мы берём супер-нейросеть от Обезьяна из статьи «Нейронные сети нетрадиционного вычисления» и видим, что точность у него та же - 92-96%, а одна эпоха обучения с видеокартой у него заняла 4961,57 секунд. В конце первых 4961 секунд (одной эпохи) точность была только 83,54%.

Kogrom ★★
()
Ответ на: комментарий от byko3y

Ты точно пробовал хотя бы раз пользоваться этим поиском?

Да, и нейроговно раздражает всё больше и больше.

Вот скажи мне, какого хера, и каким дебилоидам понадобилось в любой поисковой системе игнорировать знаки препинания и символы? Вплоть до того, что на поисковый запрос «ударная головка 13/16 дюйма» (или по-английски то же самое) вываливается куча совершенно нерелевантного говна, и я даже молчу про подавляющее большинство результатов с головками 13мм и 16мм. И никакие кавычки в запросе не заставят поиск искать только 13/16. То же самое со всем остальным где встречаются символы пунктуации. Уже проблема найти, сцуко, сверло 7.9мм.

Я имею ввиду любой поиск, абсолютно любой.

просматривая много-много страниц, можно рано или поздно найти что-то более релевантное.

Или провести пару часов объясняя какому-нибудь чату гопоты что нужно искать именно 13/16" вот как есть, вместе с кавычкой, а не 13 миллиметров, не 16, и что мне нахер не надо что-то содержащее чисто 8125.

Если я каким-то образом за 10 секунд смог угадать, что нужно перейти по этой ссылке

Это два клика с глагне. Прям по линкам с предельно релевантными названиями.

дальше идёт огромная биография Дюсберга, которую вычитывать даже по диагонали минуты две.

Вот видишь, ты даже не можешь вспомнить что можно нажать Ctrl+F на страничке.

Использование ИИ™ приводит к дебилизации пользователя. ЧТД.

в ковид ущерб был нанесён безо всяких нейросетей:

Далеко не факт. Если перечитать тогдашние пропагандистские сказочки в СМИ, нейросетями воняет по-полной. Первые GPT уже вполне работали в то время. Да и обращение с фактами как в науке, так и в СМИ - тоже очень походило на работу ИИ™. Так что есть ненулевая вероятность что весь coronahoax можно причислить к вреду от нейросетей. А если учесть что на пресловутом Event 201 про ИИ™ тоже упоминали, то вероятность становится весьма ненулевой.

Stanson ★★★★★
()
Ответ на: комментарий от Kogrom

В KNN мы просто храним какую-то информацию по всем картинкам обучающей выборки и в цикле ищем наибольшее совпадение с классифицируемой картинкой с помощью какой-то функции. Потом берём K наиболее близких картинок и смотрим их ключи, наиболее часто встречающийся ключ присваиваем тестовой картинке.

Проблема в том, что реальные картинки находятся в разных ориентациях и разного размера. А ещё есть разное освещение, помехи разного рода, и прочее. CAPTCHA из символов не просто так возникла — очень уж тяжело было решать её старым системам распознавания.

Потому сам по себе KNN — это просто один из инструментов, но для распознания картинок нужно ещё очень много других инструментов. Вот как сделать прикладную распознавалку на KNN — понятия не имею.

И такие преобразованные картинки держать в памяти вместе с ответами и в цикле сравнивать с тестовой картинкой, чтобы найти минимальное расхождение по XOR. Такой примитивный способ даст точность распознавания 96,63% при скорости около 20 мс на не самом сильном процессоре.

Просто ещё раз подчеркну, что подразумевается жестко фиксированная форма входа: один чёрно-белый символ по центру. В реальном рукописном тексте символы часто залазят один на другой, потому посимвольное разделение в принципе нельзя сделать.

byko3y ★★★★
()
Ответ на: комментарий от Stanson

Вплоть до того, что на поисковый запрос «ударная головка 13/16 дюйма» (или по-английски то же самое) вываливается куча совершенно нерелевантного говна, и я даже молчу про подавляющее большинство результатов с головками 13мм и 16мм. И никакие кавычки в запросе не заставят поиск искать только 13/16.

Подозреваемый путается в показаниях:
https://ibb.co/PZ9nBvRh
С одной стороны ты рассказываешь, как классно можешь искать инфу без нейросетей, с другой стороны выясняется, что с поисковиками ты не дружишь. У меня почему-то находятся только 13/16".

Ответ нейросети:

Популярные варианты с прямой ссылкой/названием:
1. OZON
NORGAU Industrial ударная 13/16" (под квадрат 3/4", 6-гранная, CrMo) — одна из самых доступных и часто в наличии.
https://www.ozon.ru/product/golovka-udarnaya-13-16-dyuyma-norgau-industrial-i...
Есть также Licota AQ8121 (1", футорочная/4-гранная) и другие варианты.

2. Wildberries
Ударная головка 13/16" для гайковёрта 3/4" CrMo — цена около 2497 ₽ (бывают скидки).
Ссылка пример: https://www.wildberries.ru/catalog/115905425/detail.aspx
Ищи по запросу «ударная головка 13/16» — много позиций.

3. ВсеИнструменты.ру
AmPro A4758 (6-гранная, 1/2", ~226–400 ₽) — бюджетный вариант, быстрая доставка.
Ссылка: https://www.vseinstrumenti.ru/product/golovka-tortsevaya-udarnaya-6-grannaya-...

Это два клика с глагне. Прям по линкам с предельно релевантными названиями.

Имя рандомного чела, которого я первый раз вижу — это не «предельно релевантные названия» для запроса про руководителей компании. Наверное в компании того времени не один человек работал.

Вот видишь, ты даже не можешь вспомнить что можно нажать Ctrl+F на страничке.

И что же я там буду искать? «Rule»? Нет такого слова. «Director»? Есть, но в предложениях указано, что в 1909 году он не был директором. Твой алгоритм — оч хороший способ быстро НЕ получить ответ.

Да и обращение с фактами как в науке, так и в СМИ - тоже очень походило на работу ИИ™. Так что есть ненулевая вероятность что весь coronahoax можно причислить к вреду от нейросетей.

Тут я уже могу только таблетки посоветовать.

byko3y ★★★★
()
Ответ на: комментарий от byko3y

Проблема в том, что реальные картинки находятся в разных ориентациях и разного размера. А ещё есть разное освещение, помехи разного рода, и прочее.

Это всё понятно. Я приводил пример, в котором простой метод будет работать не хуже нейронки и потому нейронка избыточна. Разные задачи можно оптимально решать разными инструментами, а не тупо всё через тяжеловесный torch.

Освещение и помехи нейтрализуются предобработкой. Ориентацию и размер тоже можно учесть. С налезанием символов сложнее. Но рукописный текст и YOLO вроде бы не осиливает. Что уж говорить о простых методах.

Kogrom ★★
()
Ответ на: комментарий от byko3y

Подозреваемый путается в показаниях

А я и не говорил что ничего не найдётся. А вот ты почему-то так и не рассказал какого хрена там дальше 16мм и 13мм присутствуют в выдаче. Поисковый токен - 13/16. Какого хера гугль начинает решать за меня что мне надо найти?

С одной стороны ты рассказываешь, как классно можешь искать инфу без нейросетей, с другой стороны выясняется, что с поисковиками ты не дружишь.

Ответ нейросети:

И почему там первыми идут китайские головки под псевдобрендом NORGAU по цене в 10 раз больше чем они стоят? Как же так получилось, что нейросеть первым делом предложила тебе самые оверпрайснутые варианты, да ещё и на малораспространённый квадрат 3/4? И, кстати, а где ссылки на aliexpress.ru, где этих головок гораздо больше чем на всех указанных площадках вместе взятых? А ведь релевантность алика должена быть намного больше озона с вайлдберриз и он должен идти первым. Мухлёж какой-то маркетинговый вместо поиска получаетя.

И это я тебе ещё достаточно однозначные 13/16 предложил поискать. :) С 1/2 дюйма, например, у тебя вообще не было бы шансов. :)

С поисковиками я дружу всё меньше и меньше. Но, внезапно, искать инфу в интернете можно не только поисковиками. :)

И что же я там буду искать? «Rule»? Нет такого слова. «Director»? Есть, но в предложениях указано, что в 1909 году он не был директором. Твой алгоритм — оч хороший способ быстро НЕ получить ответ.

А, так ты английского не знаешь. Ну тады ой.

Тут я уже могу только таблетки посоветовать.

Ну да, прям как тогда шмурдяком ширятся советовали, от которого похоже померло уже больше чем от того сезонного насморка. Кто бы сомневался. :)

Stanson ★★★★★
()
Последнее исправление: Stanson (всего исправлений: 2)
Ответ на: комментарий от Stanson

А ведь релевантность алика должена быть намного больше озона с вайлдберриз и он должен идти первым. Мухлёж какой-то маркетинговый вместо поиска получаетя.

У меня даже Qwen не выдаёт алик первым. Он прежде всего пытается выдать локальные магазины.

И это я тебе ещё достаточно однозначные 13/16 предложил поискать. :) С 1/2 дюйма, например, у тебя вообще не было бы шансов. :)

Предлагай: https://ibb.co/p6TD8KW6

byko3y ★★★★
()
Ответ на: комментарий от byko3y

У меня даже Qwen не выдаёт алик первым. Он прежде всего пытается выдать локальные магазины.

Да мне плевать что оно там пытается. Мне нужен строго релевантный поиск, а не говно какое-то. А к какой стране относится IP с которого я сделал запрос - не его собачье дело вообще ни разу.

Предлагай: https://ibb.co/p6TD8KW6

Ты хоть посмотрел что оно тебе выдало? Или как в прошлый раз? :) Где там хоть одна головка на 1/2 дюйма? Размер посадочного квадрата - это ни разу не размер головки.

Да, несомненно ИИ™ наносит непоправимый ущерб.

Stanson ★★★★★
()
Последнее исправление: Stanson (всего исправлений: 2)
Ответ на: комментарий от Stanson

Может сойтись, а может и не сойтись. Результаты для области где тренировочные данные противоречивы не будут правильными в любом случае.

Не обязательно. Вот есть у тебя результаты эксперимента какого-то физического. 10 тысяч точек, погрешности измерений разные, иногда совсем большие выбросы.

Ты строишь аппроксимацию какой-нибудь кривой. Если выбросов немного, они практически никак не повлияют на конечный результат.

Ты не поверишь, но за последние лет 50 ничего в мякотке нейросетей не поменялось.

Как считать, совремённые нейросетки на то, что было 50 лет назад похожи пожалуй менее, чем совремённые программы на 50-летней давности.

От того, что ты как-то хитро соединишь «нейроны», ничего не меняется в смысле упаковки данных в веса. А добавление обратной связи (RNN например), только ухудшает дело, т.к. появляется ещё и домен времени, а количество весов при этом остаётся тем же.

Еще в 80-х появились свёрточные (конволютивные) сети, например. В 90-е ими много занимался Ян Лекун. У них в задачах распознавания образов эффективность намного выше, чем у просто линейных. Даже качественно выше, потому что хотя теоретически линейные слои всё тоже самое могут, на практике разница выходит качественная.

Кроме как бы просто RNN появились сети с механизмом внимания. Собственно совремённые LLM - это не в своей основе не RNN, а трансформеры - принципиально другой механизм, сети, построенные на «внимании».

Это когда для каждого шага вычисляются веса внимания (через query-key-value), которые позволяют определить насколько сильно надо учитывать каждый элемент последовательности. Эти веса позволяет «фокусироваться» на нужном контексте, независимо от расстояния в последовательности. Минус - квадратичный рост количества вычислений в зависимости от длинны контекста.

Количество в качество переходит крайне редко, включая тоже крайне редкие случаи когда количество само по себе является качеством.

Совремённые сетки потому и стали массово интересны, что позволяют делать вещи, которые невозможно было сделать до определённого количества весов.

но я пока не встречал сколь-нибудь известных и удачных нейросетей которые переделывают саму свою структуру в процессе обучения и/или работы, так что эта информация статична и задана содателем нейросети, и, соответственно, не может быть использована для обхода ограничения количества весов.

Ну в общем, да. Хотя есть нюансы, как говорится.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от Stanson

Ты хоть посмотрел что оно тебе выдало? Или как в прошлый раз? :) Где там хоть одна головка на 1/2 дюйма? Размер посадочного квадрата - это ни разу не размер головки.

Я не имею ни малейшего понятия, как там эти головки обозначаются, я тебе просто копирую выдачу поисковика. Вот выдача нейросети:

Такие головки реже встречаются в метрических каталогах (типа Airline, Thorvik), потому что в СНГ преобладают метрические размеры, но они есть — особенно у брендов KING TONY, Jonnesway, Force, или импортных (Sunex, Neiko и т.п.). Вот конкретные актуальные предложения (цены и наличие на март 2026, проверяй перед заказом, так как могут меняться):
1. KING TONY 453508 (ударная шестигранная 1/2", ½" DR, стандартная)
https://www.ozon.ru/product/golovka-tortsevaya-udarnaya-shestigrannaya-1-2-ki... (часто в наличии на Ozon/Wildberries, от ~450–700 ₽)

2. KING TONY дюймовые ударные головки 1/2" (включая ½") — раздел с примерами
https://www.ozon.ru/category/golovka-shestigrannik12 (фильтруй по «1/2»" или «½»" в поиске по странице)

3. Общий поиск по дюймовым ударным головкам 1/2" на VseInstrumenti (много вариантов King Tony, Jonnesway, Force в дюймах)
https://www.vseinstrumenti.ru/tag-page/golovka-tortsevaya-shestigrannaya-5750 (ищи в фильтрах «1/2»" или «дюймовая», есть позиции типа 4535xx дюймовые)

4. Sunex Tools (профессиональные американские ударные hex sockets 1/2" drive, размер 1/2") — часто завозят в РФ/Грузию через посредников
https://sunextools.com/collections/1-2-drive-impact-sockets (выбери 6-point hex 1/2", доставка через eBay/Amazon или местные импортёры)

5. Harbor Freight / Pittsburgh 1/2" drive hex bit impact socket (аналог ½" hex) — бюджетный вариант, часто на AliExpress/Ozon под клонами
https://www.harborfreight.com/12-in-drive-metric-impact-hex-socket-set-8-piec... (ищи аналоги на Ozon по «ударная битовая головка 1/2 дюйма 1/2 drive»)

Если именно ½" (1/2 дюйма) не находится в наличии локально в Batumi/Грузия, то чаще всего заказывают:

На Ozon / Wildberries — поиск «головка ударная 1/2 дюйма 1/2 DR» или «impact socket 1/2 inch hex 1/2 drive»
На AliExpress — «1/2 drive impact hex socket 1/2»" (много от King Tony / Force клонов, доставка в Грузию нормальная)

Гугл говно, я не спорю. Но есть Gemini, которая умеет искать в гугле.

byko3y ★★★★
()
Ответ на: комментарий от anonymous_incognito

результаты эксперимента какого-то физического. 10 тысяч точек, погрешности измерений разные, иногда совсем большие выбросы.

Вот только всякие LLM обучают не на «результатах физического эксперимента», а не мусоре из интернетика. В котором 10 тысяч разных мнений по одному и тому же вопросу.

Как считать, совремённые нейросетки на то, что было 50 лет назад похожи пожалуй менее, чем совремённые программы на 50-летней давности.

Вообще никаких отличий. Основной элемент тот же что и 50 лет назад. Играются только с тем, каким образом эти древние элементы связаны, только и всего. Но тут как в той басне - «а вы друзья, как ни садитесь, всё в музыканты не годитесь».

Еще в 80-х появились свёрточные (конволютивные) сети, например.

Т.н. «свёрточная» нейросеть это просто многослойная нейросеть в которой внутренние слои по размеру меньше наружних. Всё. Все эти долбодятлы которые занимаются нейросетями дюже охочи до выдумывания новых названий для каких-то вариантов старого говна, и выдачи их за какие-то там прорывные технологии. Так же и RNN - которая всего лишь всё та же нейросеть у которой какое-то количество выходов поданы на вход. И т.д.

Феномен оверхайпа нихрена не новость. При полном отсутствии каких-либо реальных прорывов, которых нет с 1970 года, оверхайп на всякой несущественной срани просто неизбежен. Надо же изображать отсутствющий НТП как-то, чтобы людишки не начали задавать неудобные вопросы.

Это когда для каждого шага вычисляются веса внимания

Если подать на вход какую-то часть выхода, и напримдумывать каких-то новых псевдонаучных словечек, в реальности ничего не поменяется. Как была тупая нейросеть, так и осталась той же самой тупой нейросетью с теми же самыми весовыми коэффициентами. Никакого качественного изменения принципа работы при этом не произошло.

Например, обратная связь в механике, гидравлике, электронике и т.п. была само собой разумеющимся стандартным приёмом, который никогда не выдавался за какое-то прорывное изобретение. А нейросетевые долбодятлы аж 40 или даже 50 лет не могли додуматься до этой элементарщины - подать часть выхода на вход, а когда, наконец, додумались, то раздули из этой фигни хайп космического масштаба. И так во всём что связано с нейросетями в последнее время. Именно поэтому я с отвращением отношусь к тем, кто занимается нейросетями. Ну отвратительно это - применить какой-то самоочевидный и тривиальный приём, который во всех остальных областях является само собой разумеющимся и никакого новшества не представляет, надуть щёки, навыдумывать всяких дебиьных терминов и выдать это за мегапрорыв, заодно обув на бабки инвесторов. Мерзость, на уровне жуликов которые на «вечные двигатели» бабло собирали.

Минус - квадратичный рост количества вычислений в зависимости от длинны контекста.

Так это же очевидно было с самого начала любому, кто имеет нинимальное представление об обратной связи в цифре.

Совремённые сетки потому и стали массово интересны, что позволяют делать вещи, которые невозможно было сделать до определённого количества весов.

Какие, например? И какой ценой?

Почему-то говоря о нейросетях почти всегда оставляется за скобками вопрос затраченных ресурсов. Когда хомячок получает очередной нейрослоп, он даже не подозревает о цене этого нейрослопа. А она невообразимо велика по сравнению с любыми другими продуктами цифровой индустрии.

Сегодня в компьютерной технике наличествует невероятный избыток мощностей которые надо как-то утилизировать, чтобы хомячки продолжали покупать новое железо. Браузеры, игрушки и пр. перестали справляться с утилизацией уже лет 10 как. Вот решили откопать древние нейросетки и толкать ИИ™, чтобы утилизация продолжилась. Ну и заодно нажиться обувая тупых инвесторов. А вы на это дерьмо в очередной раз покупаетесь, и даже какие-то там «преимущества» в этом дерьме находите. Раз за разом, одно и то же.

Stanson ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Кроме как бы просто RNN появились сети с механизмом внимания. Собственно совремённые LLM - это не в своей основе не RNN, а трансформеры - принципиально другой механизм, сети, построенные на «внимании».

Всякие варианты ИИ с адресацией памяти (то есть Q-K) ещо в 80-х годах проектировались так-то. Другое дело, что трансформерное внимание до 2010=х годов просто не имело практической применимости, потому что оно чудовищно неэффективно.

Совремённые сетки потому и стали массово интересны, что позволяют делать вещи, которые невозможно было сделать до определённого количества весов.

Системы на базе word2vec, GloVe, context2vec, ELMo в комбинации со всякими CRF и CNN показывали топовые результаты по ответам на вопросы, анализу/категоризации текста — без какого либо внимания, просто за счёт двухэтапного анализа текста. Де-факто современные трансформеры тоже производят двухэтапный анализ. Я ещо раз напоминаю идею из моей статьи
https://bykozy.me/blog/the-foundational-flaws-of-modern-language-models/
что трансформеры — это на самом деле упрощение алгоритмов с целью компенсировать тупость алгоритмов вычислительной мощностью. Чем проще алгоритм, тем проще и быстрее его замасштабировать. Те же предельно тупорылые CNN это хорошо показали.

Совремённые сетки потому и стали массово интересны, что позволяют делать вещи, которые невозможно было сделать до определённого количества весов.

Copilot+PC использует Phi-3-Silica на 3 миллиарда параметров. И где ваш ИИ теперь? Kite был ещё в 2014 году, но он был именно на питон заточен. В чем заключается «интересность»? В массовом покрытии предметных областей? Разве что.

byko3y ★★★★
()
Ответ на: комментарий от Stanson

Т.н. «свёрточная» нейросеть это просто многослойная нейросеть в которой внутренние слои по размеру меньше наружних. Всё. Все эти долбодятлы которые занимаются нейросетями дюже охочи до выдумывания новых названий для каких-то вариантов старого говна, и выдачи их за какие-то там прорывные технологии.

Ты не прав. Число входных параметров у CNN намного меньше, чем число выходных значений — в этом и заключается оптимизация, CNN просто применяет ту же модель снова и снова к разным позициям.

Так же и RNN - которая всего лишь всё та же нейросеть у которой какое-то количество выходов поданы на вход.

«Барсук — это как хомяк, только барсук».
Рекурсивная природа модели радикально меняет способы обучения и инференса — настолько, что обычно у RNN очень ограниченное окно входной информации, и если размерность входа большая, то его либо пропускают через тот же CNN, либо расматривают каждый элемент изолировано.

А нейросетевые долбодятлы аж 40 или даже 50 лет не могли додуматься до этой элементарщины - подать часть выхода на вход, а когда, наконец, додумались, то раздули из этой фигни хайп космического масштаба.

Опять неправильный ответ. Seq2seq делал то, что ты пишешь, но никаких чудес не выдавал. Секрет успеха заключался в том, что для обучения трансформера НЕ нужно подавать выход на вход — именно это позволило утилизировать огромные мощности недавно появившихся видеокарт.

Почему-то говоря о нейросетях почти всегда оставляется за скобками вопрос затраченных ресурсов. Когда хомячок получает очередной нейрослоп, он даже не подозревает о цене этого нейрослопа. А она невообразимо велика по сравнению с любыми другими продуктами цифровой индустрии.

И ты тоже не понимаешь. Цена — это миллионы экспертов, которые пишут статьи, комментарии, код для публикации в интернете. ИИ можно построить без видеокарт, без трансформеров, но его нельзя построить без тренировочных данных.

Сегодня в компьютерной технике наличествует невероятный избыток мощностей которые надо как-то утилизировать, чтобы хомячки продолжали покупать новое железо.

У меня была такая теория, но я пришел к выводу, что фактор продажи железа имеет ничтожное прикладное значение:
https://bykozy.me/blog/attention-economics-and-software-engineering/
50 лярдов доходов для экономики — это плюс-минус ноль по сравнению с тем ущербом, который был нанесён нейросетями.

byko3y ★★★★
()
Ответ на: комментарий от Kogrom

По ресурсам нейросетки всегда проигрывают. Алгоритмы, основанные на SVM и KNN (метод ближайших соседей) обучаются на порядки быстрее и обычно требуют меньших мощностей.

И что дальше?

Для того, чтобы эти принципы заработали, надо «ручками» выделить какие-то признаки из изображений. Если удачно найдены признаки, то SVM и KNN будут работать не хуже нейросетей. Участники конкурса не смогли найти таких признаков.

Вот именно, что не смогли. Никто при прочих равных не будет использовать медленные способы, если есть существенно быстрые. А вот если их просто нет...

Возможно, датасет был слишком сложен. При маленьких датасетов и небольших количествах категорий признаки выделить проще. Например, по данным википедии, для MNIST у SVM ошибка была 0,56 %, а у KNN - 0,52%. Лучший результат нейросети - 0,09 %, но тут уже попахивает влиянием тестовой выборки через эпохи.

Я сейчас набросал простую сетку с несколькими сверточными слоями и за минут 10 её натренировал на 99.15% точности на MNIST. Без всяких читов и влияний. Просто первый же результат. Это хуже SVM и KNN, но и времени на это считай не было потрачено вообще, то есть, не надо было разбираться какие признаки выделять и что с ними потом делать. Мало того, это ещё и SSL-сетка (обучение без учителя).

Но это MNIST - простейший датасет, если для практических целей, то там можно и даже нужно использовать тот же KNN, проблема в том, что на более сложных датасетах вариантов, кроме нейросетки обычно уже не остаётся.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous_incognito

И что дальше?

Я оспорил утверждение, что нейросетки опередили другие методы по ресурсам. Не опередили. По точности - да, в некоторых случаях.

Другое дело, если мы говорим не о вычислительных ресурсах, а о времени, которое затрачивается на написание программы, то у torch будет выигрыш, если у нас нет наработок в других способах. Тут не поспоришь.

проблема в том, что на более сложных датасетах вариантов, кроме нейросетки обычно уже не остаётся

Зависит от датасета. По моему опыту, если, например, надо классифицировать объекты по цвету, то нейронка выдаёт плохую точность. Теоретически обосновать не могу. Можно было бы на практике проверить, но датасеты с работы я, конечно, не могу выкладывать, а подходящий открытый пока не нашёл. Может, если будет вдохновение, сгенерирую что-нибудь. Но пока лень.

Kogrom ★★
()
Ответ на: комментарий от Stanson

Вот только всякие LLM обучают не на «результатах физического эксперимента», а не мусоре из интернетика. В котором 10 тысяч разных мнений по одному и тому же вопросу.

Подготовка датасета для обучения - это отдельная работа. И в первую очередь LLM обучается не «мнениям», а естественному языку и как следствие может быть использована как переводчик, а также «понимать» обращения на естественном языке и сообщать результат на нём же.

Вообще никаких отличий. Основной элемент тот же что и 50 лет назад. Играются только с тем, каким образом эти древние элементы связаны, только и всего. Но тут как в той басне - «а вы друзья, как ни садитесь, всё в музыканты не годитесь».

Практика показывает, что очень даже годитесь. В том числе и в буквальном смысле в музыканты.

Т.н. «свёрточная» нейросеть это просто многослойная нейросеть в которой внутренние слои по размеру меньше наружних. Всё.

Это неверное упрощение. Такие упрощения могут создать иллюзию понимания вопроса, далёкую от реального положения.

Суть свёрточной сетки в наличии фильтра из небольшой матрицы, который скользит по изображению и составляет карту признаков изображения. В отличие от «просто многослойной нейросети», с уменьшающимися внутренними слоями, такой фильтр с одной стороны, действует локально (а не по всему входу, как MLP), в тоже время признак ищется по всему полю изображения.

Отсюда появляется инвариантность к сдвигам. Если совсем кратко CNN - это не уменьшающаяся многослойная сетка, а набор сканирующих фильтров, которые выявляют иерархию признаков от простых краев к сложным объектам, независимо от их положения.

Все эти долбодятлы которые занимаются нейросетями дюже охочи до выдумывания новых названий для каких-то вариантов старого говна, и выдачи их за какие-то там прорывные технологии. Так же и RNN - которая всего лишь всё та же нейросеть у которой какое-то количество выходов поданы на вход. И т.д.

Я вот читаю и немного охреневаю. Всё просто, только долбодятлы что-то выдумали как назвать.

Например, обратная связь в механике, гидравлике, электронике и т.п. была само собой разумеющимся стандартным приёмом, который никогда не выдавался за какое-то прорывное изобретение.

Приём может и стандартный, но математики на этом приёме не одну собаку съели. От диффур до вариационного исчисления.

Ну отвратительно это - применить какой-то самоочевидный и тривиальный приём, который во всех остальных областях является само собой разумеющимся и никакого новшества не представляет, надуть щёки, навыдумывать всяких дебиьных терминов и выдать это за мегапрорыв, заодно обув на бабки инвесторов. Мерзость, на уровне жуликов которые на «вечные двигатели» бабло собирали.

Новшество представляет результат. И то, что постфактум легко сказать, что приём самоочевидный, а ты попробуй его примени, когда он ещё не был применён.

Какие, например? И какой ценой?

Вопрос немного иначе надо ставить, а какие есть альтернативы?

Мне вот реально whisper помогает распознать речь с рабочих совещаний («митингов») и всяких прочих ситуаций с записанным голосом. Буквально рабочий инструмент. Что можно использовать для ASR (Audio Speech Recogntion) другое? В смысле совсем другое, а не иную нейросетку. Нужно, чтобы она на лету брала любой голос без обучения под него.

Что предложишь для машинного перевода использовать НЕ нейросетевое? Все эти промпты с сократами давно сдулись, сейчас только анекдоты с примерами перевода вспоминаются.

Что предложишь использовать такое, чтобы сгенерировать по паре предложений реально работающую и полезную программку?

Почему-то говоря о нейросетях почти всегда оставляется за скобками вопрос затраченных ресурсов. Когда хомячок получает очередной нейрослоп, он даже не подозревает о цене этого нейрослопа. А она невообразимо велика по сравнению с любыми другими продуктами цифровой индустрии.

До не столь давнего момента цена не сильно выше была цены ресурсов, затраченных на компьютерные игры. Собственно, в некотором роде философский феномен, в том что без них не было бы совремённых нейросетей. Потому что игры привели к появлению дешёвых и массово доступных GPU с терафлопсной производительностью на векторно-матричных операциях. А без этого на дорогих и редких специальных ускорителях и суперкомпьютерах нейросети, скорее всего, так и оставались бы в основном предметом исследований и применения в каких-то очень специфических областях.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от Kogrom

Зависит от датасета.

Ну вообще при разработке решения с машинным обучением (да и в принципе) всегда полезно сначала попробовать простые варианты. Построить какой-то бейзлайн, чтобы предварительно оценить сложность задачи и с которым можно будет сравнивать потом более тяжёлые решения.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Суть свёрточной сетки в наличии фильтра из небольшой матрицы, который скользит по изображению и составляет карту признаков изображения.

И что это как не доп. слой меньшего размера чем вход? То, что у тебя коэффициенты для остальной части изображения устанавливаются равными равны нулю не меняет ничего. Свёрточная сеть - это сеть где внутренние слои меньше чем вход и/или выход.

Я вот читаю и немного охреневаю.

А если ещё и понимать прочитанное начнёшь, то вообще окуеешь.

Вопрос немного иначе надо ставить, а какие есть альтернативы? Мне вот реально whisper помогает распознать речь с рабочих совещаний

Вот ты сейчас серьёзно, что-ли? Твои «митинги» - вообще нахер не нужны изначально.

Не, ну правда, уже набили оскомину эти истории про garbage in - garbage out. Создать проблему на ровном месте из ничего, а потом рассказывать как удобно её решать с помощью какого-то «инновационного» дерьма.

Нахера вообще может быть нужно совещание с такими участниками, если участникам потом надо его заново прослушивать с помощью нейросеточек, чтобы наконец вдуплить что там порешали?

А если тебе приходится слушать записи чужих совещаний чтобы что-то делать, то какого хера на совещании был не ты, а какие-то долбодятлы?

Что предложишь использовать такое, чтобы сгенерировать по паре предложений реально работающую и полезную программку?

Собственным мозгом пользоваться не пробовал?

Я вот вообще не могу представить себе ситуацию когда мне понадобилось бы «сгенерировать по паре предложений реально работающую и полезную программку». Если ты сам не знаешь как её написать, с чего ты взял что полученный нейрослоп будет делать именно то, что написано в «паре предложений». :)

Stanson ★★★★★
()
Ответ на: комментарий от byko3y

Число входных параметров у CNN намного меньше, чем число выходных значений — в этом и заключается оптимизация, CNN просто применяет ту же модель снова и снова к разным позициям.

И чем это отличается от обычного слоя меньшего размера в котором часть весов не относящихся к потребляемому участку входа выставлена в 0?

Конечно можно расписать эту херню всякими «совершенно отличными перемещениями» где-то там, но нахера, если разницы нет никакой?

Инвесторам можно эту лапшу на уши навешать, и в какую-нибудь научную статейку тоже сгодится ради увеличения счётчика публикаций, но мне-то зачем этот бред пытаться втереть?

Рекурсивная природа модели радикально меняет способы обучения и инференса

Да-да, конечно-конечно.

Секрет успеха заключался в том, что для обучения трансформера НЕ нужно подавать выход на вход — именно это позволило утилизировать огромные мощности недавно появившихся видеокарт.

Для обучения любой нейросетки можно не подавать выход на вход, можно активировать входы лишь частично и т.п. Плясать вокруг способов обучения можно бесконечно, при этом суть процесса (вычисление весовых коэффициентов) не меняется вообще.

Но больше забавно продолжение сентенции - про утилизацию огромных мощностей для упрощённого обучения. :)

И, кстати, а не приходило в голову, что эти «изобретатели» «новых» «видов» нейросетей просто наврали в своих white papers, например?

Цена — это миллионы экспертов, которые пишут статьи, комментарии, код для публикации в интернете.

И ИИ™ абсолютно ничего к этому добавить не в состоянии.

У тебя есть 100500 элементов представляющих из себя полезную информаци. Так вот, как ни свёртывай и не тасуй эти 100500 элементов в нейросеть, нейросеть никак не сможет создать 100501 элемент с новой полезной информацией.

50 лярдов доходов для экономики — это плюс-минус ноль по сравнению с тем ущербом, который был нанесён нейросетями.

А теперь добавь триллионы которые были получены махинациями на бирже за счёт этих 50 млрд. доходов.

А потом добавь их к ущербу нанесённому нейросетями. Потому что все эти бабки, как доходы на ненужном железе, так и биржевые махинации сделаны из воздуха.

Stanson ★★★★★
()
Ответ на: комментарий от Stanson

И что это как не доп. слой меньшего размера чем вход? То, что у тебя коэффициенты для остальной части изображения устанавливаются равными равны нулю не меняет ничего. Свёрточная сеть - это сеть где внутренние слои меньше чем вход и/или выход.

С таким подходом к определениям можно сказать и что человек - это просто двуногое без перьев. Двуногое же? Да. Без перьев - да.

Вот ты сейчас серьёзно, что-ли? Твои «митинги» - вообще нахер не нужны изначально.

Я не спрашивал нужны или не нужны «митинги», вопрос был какие есть практически применимые не нейросетевые альтернативы по распознаванию речи? Ты по сути ответил, что распознавание речи не нужно.

Собственным мозгом пользоваться не пробовал?

Я вот вообще не могу представить себе ситуацию когда мне понадобилось бы «сгенерировать по паре предложений реально работающую и полезную программку».

Выше я приводил пример. Мне понадобилось выкачать файло с FTP-сервера с глючным и неустойчивым соединением. wget и mc не справлялись. И у меня не было времени или неохота было разбираться как писать скрипт для этого.

Если ты сам не знаешь как её написать, с чего ты взял что полученный нейрослоп будет делать именно то, что написано в «паре предложений». :)

Взял с того, что за 10 минут был получен нейрослоп на питоне, который за ночь успешно сделал именно то, что мне нужно было, когда я писал эти пару предложений. В эти 10 минут вошло написание промпта, получение результата, исправление мелкой ошибки с импортом модуля.

anonymous_incognito ★★★★★
()
Последнее исправление: anonymous_incognito (всего исправлений: 1)
Ответ на: комментарий от anonymous_incognito

Я не спрашивал нужны или не нужны «митинги»,

«Я не спрашивал нужно ли забивать саморез в дерево, я спрашивал как эффективнее забивать саморез в дерево микроскопом.» - вот, починнил.

Мне понадобилось выкачать файло с FTP-сервера с глючным и неустойчивым соединением. wget и mc не справлялись. И у меня не было времени или неохота было разбираться как писать скрипт для этого.

Т.е. вместо того, чтобы прочитать man wget и узнать про опцию -t (–tries), а потом скачать всё запусив wget -t 0 -r <FTP> ты занялся какой-то фигнёй. Не, если тебе это по приколу, и цель не скачать файло, а попердолится с нейрослопом - то нет вопросов, каждый приседает как он хочет. Но нахрена тогда на полном серьёзе выдавать свою развлекуху за пример годного способа решения проблемы скачивания файлов?

Взял с того, что за 10 минут был получен нейрослоп на питоне, который за ночь успешно сделал именно то, что мне нужно было

А о том, что в этом случае тебе просто случайно повезло, и, нейрослоп, например, не потёр тебе весь хомяк, ты, конечно же, не подумал. :)

Stanson ★★★★★
()
Ответ на: комментарий от Stanson

У тебя есть 100500 элементов представляющих из себя полезную информаци. Так вот, как ни свёртывай и не тасуй эти 100500 элементов в нейросеть, нейросеть никак не сможет создать 100501 элемент с новой полезной информацией.

Что считать 100501-м элементом с новой полезной информацией?

Например, ещё в 2023-м году нейросеть AlphaDev смогла найти новый алгоритм быстрой сортировки коротких последовательностей. https://www.nature.com/articles/s41586-023-06004-9

В целом твоя позиция, что ничего полезного нет и всё хайп похоже на засовывание головы в песок. Я тоже впервые узнал про нейросети ещё в конце 90-х, мне тогда они показались какой-то ерундой, в целом я так и думал до середины 2010-х, но и потом воспринимал прохладно, пока внезапно не осознал, что упускаю из понимания нечто принципиально новое. Стал изучать, а не придумывать почему они не нужны. Могу сказать, что сильно жалею, что хотя бы лет на пять раньше не полез в эту область.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от Stanson

«Я не спрашивал нужно ли забивать саморез в дерево, я спрашивал как эффективнее забивать саморез в дерево микроскопом.» - вот, починнил.

Короче, альернативы распознаванию речи с помощью нейросеток ты привести не можешь, и начинаешь лечить, что оно не нужно вообще.

Т.е. вместо того, чтобы прочитать man wget и узнать про опцию -t (–tries), а потом скачать всё запусив wget -t 0 -r <FTP> ты занялся какой-то фигнёй.

Опция -t не помогла бы, скорее всего, потому что кроме отвала соединения ещё происходили внезапные Permission denied и ещё какая-то фигня. Возможно помогла бы опция --retry-connrefused и допускаю, что после вдумчивого изучения man wget оно бы заработало, но это твой подход. Мой был не напрягая мозг в данном случае получить скрипт.

А о том, что в этом случае тебе просто случайно повезло, и, нейрослоп, например, не потёр тебе весь хомяк, ты, конечно же, не подумал. :)

Ну я всё-таки не совсем идиот, чтобы не просмотрев даже по диагонали запускать такой код.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Например, ещё в 2023-м году нейросеть AlphaDev смогла найти новый алгоритм быстрой сортировки коротких последовательностей.

А где там доказательство что он новый? Или, например, что он максимально быстрый из всех возможных?

И нет, это не «нейросеть изобрела». Это люди специально создали и натренировали нейросеть чтобы она выдала заранее запланированный исследователями результат.

Ну и опять же - воняет маркетингом за версту. Главное было вовсе не изобрести что-то, а под любым предлогом запихать нейрослоп в LLVM в качестве «доказательства» «полезности» нейрослопа.

И, разумеется два главных вопроса - первый - а была ли вообще у кого-нибудь реальная необходимость написать более быстрый алгоритм для сортировки 3,4 и 5 элементов?, и второй - что было бы быстрее и менее ресурсоёмко если бы такая задача была поставлена - выполнить работу авторов статьи по созданию и обучению нейросети и х.з. какого количества итераций по получению и обработке результатов, или просто оптимизировать поиск среди 3,4 и 5 элементов вручную, или вообще брутфорсом найти наиболее быструю последовательность команд без всякого пердолинга с нейросетью?

То, что нейросеть можно обучить и заставить что-то сделать, совершенно не означает, что это следует делать нейросетью.

Мне это напоминает курьёзный эпизод с квантовыми компьютерами, который выдавался за неимоверное достижение, когда специально построенный для задачи разложения числа 21 на простые множители 3 и 7 квантовый компьютер таки сумел разложить число 21 на простые множители 3 и 7. Не сразу, конечно, но в итоге сумел.

Стал изучать, а не придумывать почему они не нужны.

А я просто сопоставил затраты ресурсов и получаемый в итоге результат.

Stanson ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Я сейчас набросал простую сетку с несколькими сверточными слоями и за минут 10 её натренировал на 99.15% точности на MNIST.

Хватит заниматься мастурбацией на ImageNet и MNIST — с реальными задачами эти бенчи имеют мало чего общего. Топовыми распознавалками рукописного текста нынче являются CNN+RNN — то есть комбинированные механизмы. Аналогично голый KNN нет смысла использовать, его нужно комбинировать.

byko3y ★★★★
()
Ответ на: комментарий от Kogrom

Я оспорил утверждение, что нейросетки опередили другие методы по ресурсам. Не опередили. По точности - да, в некоторых случаях.

Я описывал в своей статье, что у нейросеток на самом деле ужасная точность, и это принципиально нельзя устранить: неточность можно снизить, но принципиально невозможно устранить. Другое дело, что ни эффективность, ни точность не являются проблемой, если искуственные сети позволяют просто применить в миллион раз больше выч ресурсов и тренировочных данных, выдав в 10 раз менее неточный ответ.

По моему опыту, если, например, надо классифицировать объекты по цвету, то нейронка выдаёт плохую точность.

Нет никакой одной «нейронки». Если речь идёт про CNN, то у классических реализаций есть проблема сверхчувствительности по цвету, из-за чего она может не узнать объект со слегка иным балансом белого, даже если секунду назад прекрасно распознала этот же объект. Эта проблема не является какой-то непреодолимой, но при её решении желательно забыть про использование ImageNet в качестве бенчмарка.

byko3y ★★★★
()
Ответ на: комментарий от Stanson

И чем это отличается от обычного слоя меньшего размера в котором часть весов не относящихся к потребляемому участку входа выставлена в 0?

Твоё вмешательство многократно превышает функциональность самой модели. С таки подходом нейрон можно полностью отсоединить от выхода и подавать какие тебе нужно сигналы на выход.

И, кстати, а не приходило в голову, что эти «изобретатели» «новых» «видов» нейросетей просто наврали в своих white papers, например?

Что значит «наврали»? Это серьёзное обвинение.

byko3y ★★★★
()
Ответ на: комментарий от anonymous_incognito

AlphaDev смогла найти новый алгоритм быстрой сортировки коротких последовательностей. https://www.nature.com/articles/s41586-023-06004-9

Какой хернёй люди занимаются, я в шоке... FPGA делает сортировку примерно в миллион раз быстрее, чем любые из алгоритмов, разработанных AlphaDev. А челы хвастаются, мол, на 1.7% ускорили сортировку.

Стал изучать, а не придумывать почему они не нужны. Могу сказать, что сильно жалею, что хотя бы лет на пять раньше не полез в эту область.

Да, в 2025/2026 всякие ML инженера очень хорошо зарабатывают. Проблема в том, что когда в 2027 пузырь лопнет, то все эти успешные инженера останутся без работы (по 100 рыл на свободное место).

byko3y ★★★★
()
Ответ на: комментарий от byko3y

С таки подходом нейрон можно полностью отсоединить от выхода и подавать какие тебе нужно сигналы на выход.

Да с этой тупой хернёй вообще что угодно можно делать. А потом всячески тренировать всяким говном и смотреть что получается, надеясь получить хоть какой-то результат который можно выдать за «полезный», тщательно пососав палец или какой другой отросток.

Что значит «наврали»? Это серьёзное обвинение.

Заявили о какой-то там инновации не придумав вообще ничего нового, а просто введя какую-то свою терминологию для описания совершенно обычных вещей. Понятно, что в патентном праве отдельных государств третьего мира можно патентовать скруглённые уголки и монобровь на экране, но среди приличных людей такое не принято вообще-то.

Новое придумали в 1957 году в Корнельском универе. Всё остальное - не более чем дрочь вприсядку. С 1957 года гонять циферки через одно и то же y=f(Σw*x) и звездеть о неких инновациях придумывая бредовые термины - вот чем занимаются нейросетевые долбодятлы.

Кстати, забавно, что ты готов обсуждать эту нейросетевую херню днями, но при этом, например, если спросить у тебя, например, про самомодифицирующийся в процессе исполнения код (когда процессор при выполнении команд некоего кода в памяти изменяет некоторыми командами этот самый код и выполняет уже изменённый, изменяя его снова и снова дальше, в том числе дописывая новый и т.д.) - ты наверняка начнёшь брезгливо морщиться. А ведь это на много порядков круче и интереснее любых нейросетей, и, в отличии от последних, хотя бы теоретически имеет шансы стать тем, что потом приведёт к появлению настоящего ИИ. Но нет, самомодифицирующийся код давно объявлен «bad programming practice», и никто нынче не хайпует на этой без сомнения интереснейшей с точки зрения ИИ, да и computer science в целом теме. И ведь тебе даже неинтересно - почему так.

Stanson ★★★★★
()
Ответ на: комментарий от byko3y

Какой хернёй люди занимаются, я в шоке... FPGA делает сортировку примерно в миллион раз быстрее, чем любые из алгоритмов, разработанных AlphaDev. А челы хвастаются, мол, на 1.7% ускорили сортировку.

Себе на компьютер ты FPGA не поставишь. А это не херня, а попытка показать, что с помощью обучения с подкреплением можно не только в Го и шахматы выигрывать, но и более полезные на практике вещи делать.

Да, в 2025/2026 всякие ML инженера очень хорошо зарабатывают. Проблема в том, что когда в 2027 пузырь лопнет, то все эти успешные инженера останутся без работы (по 100 рыл на свободное место).

Даже если пузырь лопнет (многосотмиллиардные инвестиции и строительства специальных АЭС это уже перебор похоже) никуда не денутся ни нейросети, ни LLM в частности - они уже заняли свою нишу и используются на практике. Как и вообще Data Science и Big Data.

Пока что тенденция обратная, что программирование похоже радикально изменится в итоге, и те кто продолжат работать по старинке, в лучшем случае займут такую же узкую нишу, какую сейчас занимают разработчики на ассемблере. В удачном месте - интересно и денежно, но вакансий мало и круг решаемых задач специфический.

anonymous_incognito ★★★★★
()
Последнее исправление: anonymous_incognito (всего исправлений: 1)
Ответ на: комментарий от Stanson

А где там доказательство что он новый? Или, например, что он максимально быстрый из всех возможных?

Нельзя конечно исключить, что кто-то где-то в местечковом униниверситетском журнале что-то такое опубликовал. Но обычно в своей области люди более-менее хорошо представляют что известно, что нет.

И, разумеется два главных вопроса - первый - а была ли вообще у кого-нибудь реальная необходимость написать более быстрый алгоритм для сортировки 3,4 и 5 элементов?

Необходимость есть, но конечно в очень узком классе задач, в основном наверное для компиляторов. Но авторы статьи показали, что можно не только алгоритмы для чемпионства в игры в Го натренировывать, но и более практические вещи решать.

Мне это напоминает курьёзный эпизод с квантовыми компьютерами, который выдавался за неимоверное достижение, когда специально построенный для задачи разложения числа 21 на простые множители 3 и 7 квантовый компьютер таки сумел разложить число 21 на простые множители 3 и 7. Не сразу, конечно, но в итоге сумел.

Многие вещи вначале могут показаться никому не нужным курьезом. А те, кто понимает видят, что смогли использовать принципиально новый подход, который если удастся распространить на числа побольше уже курьезным не покажется.

Твои высказывания напоминают:

Такое устройство, как «телефон» имеет слишком много недостатков, чтобы рассматривать его, как средство связи. Поэтому, считаю, что данное изобретение не имеет никакой ценности. (из обсуждений в компании Western Union в 1876 год)

Эта музыкальная коробка без проводов не может иметь никакой коммерческой ценности. Кто будет оплачивать послания, не предназначенные для какой–то частной персоны? (партнеры ассоциации David Sarnoff в ответ на его предложение инвестировать проект создания радио, 1920 год)

Да, кого, к чертям, интересуют разговоры актеров? (реакция H.M. Warner — Warner Brothers на использование звука в кинематографе, 1927 год)

Самолеты – интересные игрушки, но никакой военной ценности они не представляют. (Marechal Ferdinand Foch, профессор, Ecole Superieure de Guerre)

Что может быть полезного в этой штуке? (вопрос на обсуждении создания микрочипа в Advanced Computing Systems Division of IBM, 1968 год)

Ребята, хватит заниматься ерундой. Персонального компьютера не может быть. Могут быть персональный автомобиль, персональная пенсия, персональная дача. Вы вообще знаете, что такое ЭВМ? ЭВМ — это 100 квадратных метров площади, 25 человек обслуживающего персонала и 30 литров спирта ежемесячно! (Заместитель министра радиопромышленности СССР Николай Горшков, 1980 год)

Я изъездил эту страну вдоль и поперек, общался с умнейшими людьми и я могу вам ручаться в том, что обработка данных является лишь причудой, мода на которую продержится не более года. (редактор издательства Prentice Hall, 1957 год)

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Себе на компьютер ты FPGA не поставишь

Смотрю на SBC с Zynq 7020… Мда…. И эти люди рассказывают нам о пользе нейросетей. :)

Stanson ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Многие вещи вначале могут показаться никому не нужным курьезом.

Вот только ты, видимо, совсем не отдупляешь, что с нейросетями это «вначале» случилось почти 70 лет назад. 70, Карл! 70! А то, что происходит сейчас - это надувание пузыря на очередной давно признанной бесперспективной технологии. Точно так же, как с электромобильчиками, например. И в том и в другом случае у технологии есть неустранимый недостаток - у нейросетей это неимоверная прожорливость, а у электромобильчиков - «бензобак», который стоит половину автомобиля, если не больше, занимает объема и весит ещё больше и требует замены после весьма небольшого количества заправок.

Stanson ★★★★★
()
Ответ на: комментарий от Stanson

Вот только ты, видимо, совсем не отдупляешь, что с нейросетями это «вначале» случилось почти 70 лет назад. 70, Карл! 70! А то, что происходит сейчас - это надувание пузыря на очередной давно признанной бесперспективной технологии.

Бывает нужно, чтобы технология созрела и появились условия для неё. Например, первые квадрокоптеры Георгий Ботезат придумал ещё в 1922-м году. Они даже летали. Более 100 лет назад. Однако практически до начала нулевых, в течение 80 лет, они были никому не нужной бесперспективной технологией.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Мда.. Нишевые решения - это ASIC называется. А FPGA (и CPLD) это как раз универсальное решение именно чтобы применять его где угодно, а не только в каких-то там нишах. :)

То, что в твоём личном писюке нет FPGA - совершенно не значит что FPGA в компьютерах не бывает. FPGA/CPLD рядом с CPU или прямо внутри SoC это очень популярное решение в совершенно разных областях - от контроллеров управления станками и трансиверов до ЭБУ автомобилей и всяких цифровых осциллографов. Я даже допускаю что компьютеров с FPGA/CPLD в мире больше чем писюков.

Stanson ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Ну и как там с созреванием графена, электромобильчиков, нейросетей и прочих тупиковых технологий?

Что до квадрокоптеров - так у них тот же фатальный недостаток что и у электромобильчиков - использование самого говённого в мире бензобака. Когда придумают на порядки более эффективную замену электрохимическим аккумуляторам/батарейкам - тогда и приходи с рассказами о том, как оно взлетело.

Stanson ★★★★★
()
Ответ на: комментарий от Stanson

То, что в твоём личном писюке нет FPGA - совершенно не значит что FPGA в компьютерах не бывает.

Это значит, что я не могу прийти в условный https://www.dns-shop.ru/ и купить там FPGA-ускорялку для сортировки строк.

А что там за платы есть для разработчиков и для включения в состав готовых изделий (обычно мелкосерийных) - это совсем другое и не имеет отношения.

Нейросети тоже были нишевыми и специализированными, пока для их работы и особенно обучения требовались суперкомпьютеры или специальные чипы (FPGA в том числе).

anonymous_incognito ★★★★★
()
Последнее исправление: anonymous_incognito (всего исправлений: 1)
Ответ на: комментарий от Stanson

Ну и как там с созреванием графена, электромобильчиков, нейросетей и прочих тупиковых технологий?

Графен придумали в 2004-м году и он уже у тебя успел стать тупиковой технологией? Используется, можешь погуглить.

Про нейросетки я уже приводил примеры сугубо личного практического даже использования. Назвать обычные аналоги ты не смог и просто стал лечить, что не нужно распознавать речь, не нужно скрипты делать автоматически и тд.

А не сугубо личного, из массового - вся биометрия сейчас на нейросетках. Как бы не относиться к биометрии как явлению, но технологически - это нейросети.

Что до квадрокоптеров - так у них тот же фатальный недостаток что и у электромобильчиков - использование самого говённого в мире бензобака.

Предложи тем, кто их использует (в зоне боевых действий например), отказаться от квадрокоптеров. Или объясни почему они им не нужны на самом деле. Узнаешь про себя много нового в ответ.

Когда придумают на порядки более эффективную замену электрохимическим аккумуляторам/батарейкам - тогда и приходи с рассказами о том, как оно взлетело.

Если уж на то пошло, то есть и бензиновые квадрокоптеры, а не на аккумуляторах.

А оно взлетело, также как и нейросети, попытки доказать, что не взлетело просто противоречат окружающей реальности. Не нейросетевых аналогов ты предложить не в состоянии, можешь только пытаться доказывать, что сами решаемые задачи не нужны. Но это даже смешно уже.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Это значит, что я не могу прийти в условный https://www.dns-shop.ru/ и купить там FPGA-ускорялку для сортировки строк.

Зато можешь на условном озоне или алике купить сколько угодно FPGA ускорялок для чего угодно, в том числе и твоих нейросеточек.

А что там за платы есть для разработчиков и для включения в состав готовых изделий (обычно мелкосерийных) - это совсем другое и не имеет отношения.

Нет, просто у тебя руки в жопе. Ты потребитель самого низкого пошиба. Поэтому и покупаешься на маркетинговое враньё корпораций про нейросеточки.

Stanson ★★★★★
()
Ответ на: комментарий от anonymous_incognito

Графен придумали в 2004-м году

Ты на 100 лет где-то ошибся. Сюрприз, да?

Предложи тем, кто их использует (в зоне боевых действий например), отказаться от квадрокоптеров

А зачем? Это как раз единственное применение в котором недостатки батарейки не особо важны. Главное чтобы долетело куда надо.

Но я больше чем уверен, что ребятам на фронте намного больше по душе пришлись бы квадрокоптеры у которых не сраные 20 минут полёта, а часов шесть, например, как минимум, при том же размере и массе.

Если уж на то пошло, то есть и бензиновые квадрокоптеры, а не на аккумуляторах.

Если уж на то пошло, то есть и нормальные автомобили, а не на аккумуляторах.

Stanson ★★★★★
()
Последнее исправление: Stanson (всего исправлений: 1)
Ответ на: комментарий от byko3y

Нет никакой одной «нейронки».

Более корректно было бы сказать, что нейросетки, которые использовали мы, не выдали хороший результат. Решение на SVM показало среднюю точность примерно на 15% выше.

Я пока не могу сказать, было ли это уникальным явлением.

она может не узнать объект со слегка иным балансом белого

Баланс белого - это функция камеры. У промышленных камер машинного зрения, которые мы используем, автоматический баланс белого отключается, как и автоматическое усиление. Баланс выставляется «ручками» или специальной программой по калибровочному объекту, для которого заданы усреднённые R, G, B и эти RGB шумят не более единицы (шумит матрица). Естественно, освещение тоже стабильное, посторонних источников света нет.

Kogrom ★★
()
Ответ на: комментарий от anonymous_incognito

Себе на компьютер ты FPGA не поставишь. А это не херня, а попытка показать, что с помощью обучения с подкреплением можно не только в Го и шахматы выигрывать, но и более полезные на практике вещи делать.

В каком же шоке ты будешь, когда узнаешь, что FPGA продаётся как обычная PCI карточка:
https://www.ebay.com/itm/295522074863

никуда не денутся ни нейросети, ни LLM в частности - они уже заняли свою нишу и используются на практике. Как и вообще Data Science и Big Data.

Возможности LLM в 2026 года удаётся заметно завысить за счёт выкидывания бешенных денег на перетренировки. И это нужно постоянно делать под конкретные новые факты и задачи. Как только пузырь лопнет - сверхбольшие нейросети перестанут учиться. Так-то устаревшие датасеты уже сейчас являются проблемой.

Пока что тенденция обратная, что программирование похоже радикально изменится в итоге, и те кто продолжат работать по старинке, в лучшем случае займут такую же узкую нишу, какую сейчас занимают разработчики на ассемблере.

Ты до этого в криокамере лежал? IT совсем недавно прошло через крупный пузырь, говносайты на SaaS, крипто-мед-финтех. В 2022 году не ИИ заменил кодеров, а как раз ковидные пузыри пошли лопаться. В 2022 никаких чудес ИИ ещё не умели выдавать и кодеров не могли заменить, но радость в индустрии началась уже тогда. Вот то, что сейчас с фронтендом — то же будет с ИИ. То есть, фронтенд никуда не денется, будет просто скромным и практичным.

byko3y ★★★★
()
Ответ на: комментарий от anonymous_incognito

Такое устройство, как «телефон» имеет слишком много недостатков, чтобы рассматривать его, как средство связи. Поэтому, считаю, что данное изобретение не имеет никакой ценности. (из обсуждений в компании Western Union в 1876 год)

В 1876 году телефон был полной херней. Эту цитату любят вспоминать так, будто сей оратор должен был предсказать появление смартфонов. Но никаких смартфонов ни в 1876, ни в 1976 году быть не могло.

Самолеты – интересные игрушки, но никакой военной ценности они не представляют. (Marechal Ferdinand Foch, профессор, Ecole Superieure de Guerre)

Самолёты очень долго оставались в основном средствами разведки и очень убогими бонбардировшиками. Самое смешное то, что по мере развития прогресса ценность самолётов снизилась и они остались в основном транспортными средставми.

Что может быть полезного в этой штуке? (вопрос на обсуждении создания микрочипа в Advanced Computing Systems Division of IBM, 1968 год)

В чём вообще проблема этой цитаты? По состоянию на 1968 год чипы были на грани практической применимости. Только в начале 70-х их научились нормально делать.

Я изъездил эту страну вдоль и поперек, общался с умнейшими людьми и я могу вам ручаться в том, что обработка данных является лишь причудой, мода на которую продержится не более года. (редактор издательства Prentice Hall, 1957 год)

Вот примерно в это время начали придумывать, что «люди не нужны, слава роботам». Лисп, если чо, под ИИ разработан был тогда. Посмотри, сколько времени понадобилось, чтобы ИИ наконец начал заменять кожанного мешка. Я как бы не спорю, что может быть через 20 лет в технологиях ИИ будет что-то новое. Но сейчас? Увы, нет.

byko3y ★★★★
()
Ответ на: комментарий от Kogrom

Баланс белого - это функция камеры. У промышленных камер машинного зрения, которые мы используем, автоматический баланс белого отключается, как и автоматическое усиление.

Баланса белого нет у сенсора - это метод обработки изображения, как и цифровое усиление. Что какие-то там камеры делают автообработку внутри - может быть, может быть. Но лаже топовые проф фотики иногда бесогонят с балансом.

Естественно, освещение тоже стабильное, посторонних источников света нет.

А вот это другое дело. У меня теории закончились.

byko3y ★★★★
()
Ответ на: комментарий от byko3y

топовые проф фотики иногда бесогонят с балансом

При чём тут топовые фотики? Я говорю о камерах машинного зрения. Раньше были популярны Point Grey и Basler. Сейчас их всякие китайские клоны их вытесняют. Российские тоже были. Так вот у камер машинного зрения автоматический баланс отключается.

Баланса белого нет у сенсора

А в камере есть. И в твоём топовом фотике, и в веб-камере, и в камере машинного зрения. Разница в том, что у веб-камеры баланс автоматический и это не вырубить.

как и цифровое усиление

Усиление - это аналоговое преобразование. Сенсор выдаёт аналоговый сигнал, который идёт на усилитель, а с него на АЦП. Это всё внутри камеры.

Ещё можно про экспозицию вспомнить - это уже параметр сенсора. И она в камерах машинного зрения тоже может быть зафиксирована. Кроме того, там есть всякие прикольные штуки, типа ROI, биннинга, цифрового сдвига и т.д., которых в веб-камерах нет, насколько я помню.

Kogrom ★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)