Мне лично дотнет нравится больше тем, что там обычно все из коробки(так было раньше, по крайней мере) Например, простая задача - скачать файл - в дотнет просто копипаст примера, а в джаве я даже не знаю как, когда искал, предлагалось ставить какие библиотеки - в общем, порог входа ниже, поставил VS, жмешь F5 - все работает.
Плюс отличная интеграция с Windows.
Еще asp.net mvc, wpf.
Сейчас ко всему этому еще и нормальная кросплатформенность(они планируют кроссплаторменный UI где-то через год), сейчас приложение можно хоть в WebAssembly. Т.е. реально унтверсальная платформа.
И сам язык позволяет писать быстрее. Мне иногда кажется, что джаву проектировали инопланетяне.
Например, есть код
HashSet<MyType> set = new HashSet<…
Как это упростили в dotnet
var set = …
В джаве
HashSet<MyType> set = new HashSet<>()
O_o
Плюс поддержка от Microsoft, они сейчас очень сильно поддерживают платформу, библиотеки есть почти для всего(но не для всего, есть вещи, которые только на java), с хорошей документацией.
Ну лично для меня это не особо аргумент, поэтому про Linux и спрашивал изначально, т.к. если это всё классно и удобно только под Виндой, то не вариант.
В джаве HashSet<MyType> set = new HashSet<>()
На самом деле, не так и плохо выглядит. В отличии от var set = …, тип переменной ясен.
И дальше чо? Как ты вообще собрался мерять «лучшесть» и «быстроту»? И что это за категория такая из «других динамических языков»? Что делать с AOT-компилируемыми динамическими языками, в которых тип выводится при компиляции?
Тогда почему так часто разговоры про то, что JAVA дофига жрёт, а про .NET их нет?
Потому что в .Net, вследствие платформоспецифичности, принято использовать библиотеки с родным кодом, которые, естественно, жрут памяти намного меньше, чем груда объектов в GC-контролируемой куче.
Да вот не сказал бы. Я как раз и тыкал его, когда свою админку на React с тайпскриптом пытался рефакторить. Без плагинов не юзабельно было (либо привыкать надо, не знаю).
На самом деле, не так и плохо выглядит. В отличии от var set = …, тип переменной ясен.
Сейчас в C# можно писать HashSet<string> set = new() { "C#", "Java" };. Вроде современная Java тоже оба синтаксиса поддерживает, хотя могу и ошибаться.
Не упростили, а научили вывод типов. Короче, была проведена общирная работа.
Я даже больше скажу, откуда копыта растут: MS Research - Haskell world. Они даже хотели полностью запилить аналог для штангистов, но получился F#, наследник Ocaml.
Что значит «вышел»? 1.0 только 5 лет назад, а до этого все ломали по ведению пятки левой ноги. Пять лет с того момента когда язык стабилизировали в консервативной нише системных языков - очень мало
Он просто набрасывает. А я на вас ведусь. Мне же надо составить было общую картину кодеров на ЛОР, которые ведутся на эти темы. Ты, обезьянка, я, многие другие. Вот и составил, покормив ТС.
Ты всё усложняешь. Сюда народ пообщаться заходит, не более того. Не думаю, что кто-то серьёзно относится к обсуждениям тут. Ну кормится ТС - да и фиг с ним.
Был бы php, деанона бы не было, тут каждый второй на нём пишет. А на этом языке, я думаю, с форума, кроме меня, никто не пишет =) До этого на C++ писал, стал бы я на PHP переходить.
Не уверен. Всё, что я от тебя слышу - это «я не в тот чат зашёл», «Тема для LOR сложна: смысла держать открытой не вижу» и т.п. Хотя у каждого свои цели и задачи, наверное.
Уже прокатило. Сеошники давно лепят хмл для поисковиков.
В xml всё, что угодно, вписать можно.
Так и на сцайте что угодно написать можно. И боту что угодно отдать можно. Почему нет? Тем более сейчас в моде spa. В гуглах это понимают. Им там тоже не улыбается гипертекст парсить, я думаю.
Уже прокатило. Сеошники давно лепят хмл для поисковиков.
Если ты про sitemap.xml, то это нужно лишь для того, чтобы поисковик знал, какие есть страницы на сайте, и когда они обновились. А обходит их и парсит он самостоятельно. Причём роботом это всё рассматривается как рекомендация, и не более того. Есть кучи сайтов вообще без sitemap.xml, и они в выдаче имеют совсем не плохие позиции.
Так и на сцайте что угодно написать можно. И боту что угодно отдать можно. Почему нет? Тем более сейчас в моде spa. В гуглах это понимают. Им там тоже не улыбается гипертекст парсить, я думаю.
Это не будет работать, потому что все поисковые системы как раз борются с тем, чтобы «что угодно» ботам не отдавали. И давно уже победили в этом - и делают таким сайтам пессимизацию. А это можно сделать только путём парсинга контента страницы. То, что ты предлагаешь, позволит любому обмануть поисковую систему. В случае со SPA - роботы юзают штуки типа Selenium (по крайней мере, Google), и точно так же потом парсят html.
Это не будет работать, потому что все поисковые системы как раз борются с тем, чтобы «что угодно» ботам не отдавали.
Так нет. В смысле контент тот же самый, просто в случае бота там текст, в случае юзера spa на реакте или картинка в вебгл:)
В случае со SPA - роботы юзают штуки типа Selenium (по крайней мере, Google), и точно так же потом парсят html.
Бедные. Какой кошмар.
То, что ты предлагаешь, позволит любому обмануть поисковую систему.
Ну да с другой стороны. В топе выдачи будет всякий мусор.
Ну тогда не будет никакого васм без дома и зря все на него так дрочили, т.к. васм с домом - это такие же тормоза. Ну или гугол приделает нейронку и она будет сёрфить интернет с монитора. Или не приделает, а васм будут юзать на ноде вместо ffi.
контент тот же самый, просто в случае бота там текст, в случае юзера spa на реакте или картинка в вебгл
контент тот же самый
Ну-ка расскажи, как ты представляешь себе верификацию идентичности этого контента. Давай, как будешь доказывать, что текст который я тебе отдаю в plain, и который рендерю в webgl - один и тот же.