Тут наткнулся на интересный лонгрид. Имеется ввиду эффективность использования токенов при работе с ИИ агентами. Мы ведь на всех парах летим в светлое будущее, где кодит ИИ, а мы сидим под пальмой и хлебаем смузи. Так о чём это я.
Чем более эффективно исходный код токенизируется, тем лучше его понимает ИИ и лучше может его генерировать. Другими словами, для ИИ нужно больше смысла в меньшем кол-ве токенов. ИЧСХ, для лучшего понимания кода людьми нужно то же самое, а это положительно влияет на продуктивность.
Так вот, главный вывод из данного эксперимента следует не удивительный, большинство динамически типизируемых языков более эффективны по токенам, чем статически типизируемые. Но некоторые статические языки уверенно уделывают некоторые динамические. Т.е. дело не только в самой типизации, но и в конкретной имплементации. [вброс]Пламенный превед сишникам и жабаскриптерам 😛[/вброс]
Более общий вывод напрашивается интересный. Вместо бесконечных срачей на тему чей шворц длиннее какой язычок луче, у нас вырисовываются объективные, легко проверяемые критерии, какие фичи полезны для япов будущего, а какие не очень. Когда список утрясётся, останется собрать все полезные фичи в один яп, а все бесполезные выкинуть. И вуаля, вкалывают роботы кодит ИИ, а мы все идём хлебать смузи.

















