sab123: (Default)
Это наверное последняя тема с NeurIPS'а, я ее вроде у кого-то (vak?) раньше видел, но тут тоже была презентация. И чем дольше я про эту идею думаю, тем больше я нахожу в ней неувязок. Так что я сейчас вкратце расскажу идею, а потом про неувязки.

Идея такая, чтобы представлять плавающие числа их логарифмом по базе 2, и выгода предполагается в том, что 4-битный логарифм заменит 16-битное плавающее число. Операции меняются, умножение превращается в сложение, деление в вычитание, а для сложения-вычитания вообще-то нужно переводить в нормальное представление, но для простого случая представления чисел в диапазне (0, 1] с округлением сложение заменяется на логику "если оба числа равны, то результат будет равен одному числу, умноженному на 2, а иначе большему из чисел", вычитание же "если оба числа равны, то (почти) 0, иначе если логарифм отличается ровно на единицу, то меньшему числу, иначе большему числу". И для этого же случая представления нахождение логарифма вычисляется как "найти первый ненулевой бит", а в обратную сторону - сдвинуть 1 на значение логарифма.

Теперь как это будет выглядеть в деталях, и проблемы. Во-первых, конечно, log4 будет иметь точность представления не float16, а fixed16, поскольку во float есть своя логарифмическая часть.

Чтобы представить диапазон (0, 1], мы представляем его как [2^-15, 2^0], то есть число в представлении будет отрицательной степенью двойки. Обратите внимание на то, что точно 0 в этом случае представить невозможно, это будет 2 в минус-бесконечной степени. И шаг между числами будет расти вместе с самими числами: разница между 2^-15 и 2^-14 будет 2^-15, но разница между 2^-1 и 2^0 будет 1/2. То есть, все значения между 1/2 и 1 округляются в одну из этих двух сторон. Это можно несколько поправить, если сделать логарифм не целым, а числом с фиксированной точкой. Если мы поместим одну цифру логарифма после точки, то у нас будут числа от 2^-7 до 2^0 с шагом в степени 1/2. Соответственно, 2^(-1/2) уже около 0.7, не так плохо. Но точность (в лучшем случае) стала соответствовать не fixed16, а fixed8. Если поместить две цифры логарифма после точки, то станет соответствовать fixed4 - такая же точность 4 бит, но с другим распределением значений!

Все эти особенности представления может быть и ничего для байесианских вычислений, где во-первых активно используется деление 1/x, во-вторых диапазон от 0 до 1. Но у нейросети другие особенности. Она на самом деле уже и без того работает на логарифмах (см. https://babkin-cep.blogspot.com/2017/06/neuron-in-bayesian-terms-part-2.html и https://babkin-cep.blogspot.com/2017/06/neuron-in-bayesian-terms-part-3.html), так что проблем с делением нет, и неравномерность распределения значений вредит, и во-вторых ей нужен симметричный диапазон как минимум [-1, 1]. То есть, нам надо отвести один бит под знак (вне логарифма, поскольку отрицательные числа не представимы логарифмом), и в итоге log4 со знаком получает ту же точность, что fixed4 со знаком! Обратите внимание, что в отличие от обычных представлений, использовать диапазон [0, 2], сдвинутый на единицу, не получится, поскольку его края представляются асимметрично, только внешний знак и специальная логика на его обработку. Ну и в функции нелинейности из-за ограниченности возможных значений выйдет жопа, даже если функция ReLU.

Мораль в том, что халявы нет. Если у нас есть 16 возможных значений в 4 битах, то мы можем представить не более 16 возможных дробных значений, и все, что мы можем поменять - это как именно они распределены по диапазону, при желании можно хоть тупо таблично распределить их как угодно. В каких-то особых случаях от неравномерного распределения может быть выигрыш, но в большинстве из случаев - сворее проигрыш.

рыба

Feb. 15th, 2025 03:34 pm
sab123: (Default)
Читал у https://jlm-taurus.livejournal.com всякие воспоминания про рыбную промышленность. Узнал, что крупную рыбу типа осетров из рек европейской России выловили почти всю при большевиках, в 1920-х годах. А вот интересно, как бы оно пошо без большевиков и их мании перевыполнения дебильных планов любой ценой?
sab123: (Default)
https://www.msn.com/en-us/news/us/former-cia-analyst-pleads-guilty-to-leaking-info-on-planned-israeli-attack-on-iran/ar-AA1xoFsW?ocid=TobArticle

Персонаж мусульманского происхождения, работавший в ЦРУ, слил израильские секратные планы в Иран. С другой стороны, были точно так же и случаи персонажей еврейского происхождения, сливавших американские секретные планы в Израиль. Ну и прочие виндманы. И закоммуняцкие деятели, сливавшие много лет в СССР, особенно в рузвельтовские времена. В-общем, заставляет задуматься о доступе к секретам людей с двойной лояльностью.
sab123: (Default)
https://www.firstpost.com/explainers/sai-varshith-kandula-indian-american-8-years-prison-attempted-white-house-attack-13853645.html

https://www.msn.com/en-us/news/us/attempted-white-house-attacker-receives-sentencing/ar-AA1xl90z?ocid=TobArticle

Некий индус в мае 2023 года взял напрокат грузовик в Ю-Холе (большой, 24-футовый) и поехал им ломать забор в Белом Доме. Забор оказался крепкий, с двух попыток не сломался, сломался грузовик. После чего индус достал из рюкзака флаг со свастикой и стал им махать, пока его не арестовали. Причем старательно объяснил, что свастика не индусская, а нацистская, и что ему очень нравится товарищ Гитлер, и потому он хотел заменить в Америке демократию на диктатуру. У него диагостировали шизофрению, которая по мнению врачей привела к такому инциденту. И дали 8 лет тюрьмы, плюс штраф. Но почему тюрьмы, а не дурдома? По всем показаниям должен бы быть дурдом. Подозреваю, что махай он коммунячьим флагом - даже дурдома бы не дали, не то что тюрьмы.

P.S. И сказал, что организовал бы убийство Байдена, ели бы это помогло ему в достижении его целей. Как говорится в Швейке, если бы у него был фотоаппарат, то он бы им фотографировал военный объект.

Llama

Jan. 14th, 2025 10:20 pm
sab123: (Default)
Вот еще нашел интересную ссылку с NeurIPSa, документация про как использовать Ламу:

https://llama-stack.readthedocs.io/en/latest/building_applications/index.html

И внутри нее ссылка на колаб: https://colab.research.google.com/drive/1F2ksmkoGQPa4pzRjMOE6BXWeOxWFIW6n

К сожалению, кроме ссылки я из той спонсорской презентации от Меты ничего не вынес, она была чрезвычайно унылой, докладчики жевали сопли, и вяло и непонятно бубнили что-то себе под нос, и смотреть на это все было совершенно невозможно. Но по документации, наверное, можно разобраться.

Атари

Jan. 9th, 2025 12:37 am
sab123: (Default)
Из ИЕЕЕ приехало:

https://spectrum.ieee.org/chuck-e-cheese-animatronics

Про аниматронику, про то что Чак И. Чиз оказывается не мыш, а крыс, и что изначально он вообще предполагался быть койотом, и ссылка на интервью с основателем Атари (и Чак И. Чиза) Ноланом Бушнеллом про историю Атари:

https://www.si.edu/media/NMAH/NMAH-AC1498_Transcript_NolanBushnell.pdf
sab123: (Default)
https://www.breitbart.com/entertainment/2025/01/06/actor-jon-cryer-says-kamala-harris-lost-election-because-americans-hate-black-women/

Это актер, который играл Алана Харпера в "Two and a half men". С бородой я его как-то не узнал, он сделался совсем похож на обезьяну. Он оказывается и в реальности такой же, как его персонаж!
sab123: (Default)
"Dense Associative Memory Through the Lens of Random Features"
https://neurips.cc/virtual/2024/poster/96886

Тут ассоциативная память - не то, к чему мы привыкли в компьютерах, а другой смысл у того же названия. Тут идея в том, что хардкодятся коэффициенты нейросети, по которым она запоминает несколько наборов данных, связанных с определенными входными данными. И потом при подаче некоих данных на вход вспоминает ближайший к ним набор. Насколько я понял, предмет достижений тут в том, что научились добавлять значения динамически, впихивая их между уже существующими.

Насколько я понял из их картинок, по сути это работает как две ступени: в первой ступени нечто типа хэммингова кода находит идентификатор ближайшего входного набора, и во второй ступени по нему выдается соответствующий выходной набор. Они в таких терминах не думают, но когда я описал, что это значит, подтверили, что да, так оно и работает. С глубокой стратегией втыкать идентификаторы новых наборов так, чтобы оставить максимальное кодовое расстояние от предыдущих.
sab123: (Default)
Это на данный момент не столько рассказ, сколько сборник ссылок, которые мне хочется прочитать в подробностях, но пока руки не дошли:

"The Road Less Scheduled "
https://neurips.cc/virtual/2024/poster/96925

"Adam with model exponential moving average is effective for nonconvex optimization"
https://neurips.cc/virtual/2024/poster/93230

"Remove that Square Root: A New Efficient Scale-Invariant Version of AdaGrad"
https://neurips.cc/virtual/2024/poster/96023

"Unraveling the Gradient Descent Dynamics of Transformers"
https://neurips.cc/virtual/2024/poster/94737

"Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond"
https://neurips.cc/virtual/2024/poster/95420

"On Convergence of Adam for Stochastic Optimization under Relaxed Assumptions"
https://neurips.cc/virtual/2024/poster/93100

"SGD vs GD: Rank Deficiency in Linear Networks"
https://neurips.cc/virtual/2024/poster/95034

"A Continuous-time Stochastic Gradient Descent Method for Continuous Data"
https://neurips.cc/virtual/2024/poster/98309

"How Diffusion Models Learn to Factorize and Compose"
https://neurips.cc/virtual/2024/poster/95399

"Where Do Large Learning Rates Lead Us?"
https://neurips.cc/virtual/2024/poster/95929

"Don't Compress Gradients in Random Reshuffling: Compress Gradient Differences "
https://neurips.cc/virtual/2024/poster/96110

"The Implicit Bias of Adam on Separable Data"
https://neurips.cc/virtual/2024/poster/93086

Ну и про наше, где тоже есть такой аспект (в приложении, поскольку он не основной), краткий пересказ простыми словами, и там же ссылка на собственно статью:
https://babkin-cep.blogspot.com/2024/12/triceps-and-realseudo-at-neurips.html
https://babkin-cep.blogspot.com/2024/12/lasso-ista-fista.html
https://babkin-cep.blogspot.com/2024/12/realseudo-and-evaluation-of-activation.html
с дополнительными подробностями в
https://babkin-cep.blogspot.com/2023/02/arrested-bouncing-in-floatneuralnet.html
https://babkin-cep.blogspot.com/2023/10/comparing-floatneuralnet-options.html

Вкратце что меня заинтересовало:

Есть проблема того, как выбрать скорость тренировки нейросетей (т.е. шаг, с которым прилагать градиент при backpropagation). Если выбрать слишком маленький шаг, процесс идет очень медленно, да к тому же и застревает в локальных оптимумах, если выбрать слишком большой, то начинается расхождение и все погибает. Более того, оказывается, что его выгодно менять в процессе обучения - начинать с большого, и потом уменьшать. По какому именно принципу уменьшать - называется scheduling, и для него есть варианты алгоритмов от фиксированного закона до адаптивных. И люди это активно исследуют.

Во многом оно соответствует тому, что я видел в своих экспериментах: говоря по-простому, причина для уменьшения шага в том, что по мере прослеживания градиентов назад по слоям, они уменьшаются, и в начале тренировки давление градиентов должно быть настолько сильным, чтобы активно двигать самый нижний слой. А потом он более-менее устаканивается и для более верхних слоев надо меньше давление, потому что до них доходят более крупные градиенты. У меня раньше возникала идея попробовать разные шаги по слоям, но я до ее опробования так пока и не добрался, и вроде ничего аналогичного тут не видел.

В чем собственно сложность с движением слоев: по мере того как веса двигаются, иногда они меняют знак. Так вот, фокус в том, что эффект градиента на вес попорционален модулю веса, то есть чем ближе вес к нулю, тем медленнее он двигается (и если попадет в ноль, то там застрянет навсегда). Поэтому единственный способ поменять знак - сделать достаточно большой шаг, чтобы перепрыгнуть область, слишком близкую к нулю.

Но, как ни странно, люди исследуют еще и непрерывное (а не дискретное) движение по градиентам - я не понимаю, в чем выгода такого подхода, возможно он математически красивее. Это значит, что у них спуск будет гарантированно застревать в нулях. И таки да, подтверждают, что застревает. Преодолевают это двумя способами - моментный спуск, где сохраняется инерция и ноль проскакивается на ней, и добавление малых случайных флюктуаций. И таки да, я тоже пробовал делать и то и другое даже на дискретном спуске. Еще я сейчас вспомнил, что пробовал туннелирование, когда при попадании в малую зону вокруг нуля значение выскакивает из этой зоны наружу, продолжая движение в ту же сторону - это тоже работает, но спросить настоящих ученых, пользуются ли они таким, я забыл.

У меня была проблема в том, что момент сочетался только с нестохастическим спуском. И по сравнению с нестохастическим спуском мой алгоритм для момента и шедулинга работает очень хорошо, однако при стохастическом спуске можно брать шаг в сотню раз больше и он оказывается еще лучше (хотя на первой паре сотен шагов мой вариант и его побеждает). Однако, посмотрев на что люди делают, наверное можно тупо брать для производства момента средний градиент от стохастического шага. Надо будет попробовать. И/или другой вариант - если скорость моментного нестохастического спуска падает, пробовать сделать пару сотен шагов стохастически и потом опять моментом.
sab123: (Default)
В "Exploring the trade-off between deep-learning and explainable models for brain-machine interfaces" https://neurips.cc/virtual/2024/poster/94983 люди декодируют сигналы с электродов в мозге чтобы управлять симулированными конечностями.

Интересно, что уже некоторое время тому назад люди догадались, что процесс этот в большой степени упирается в просто механику: у всех костей, суставов и т.д. есть инерция, трение, степени свободы, которые в большой степени и определяют движение. Поэтому чтобы симулировать управляемую мозгом конечность, надо симулировать всю эту механику, и к ней прикладывать управляющие сигналы от мозга. Сигналы эти содержат шум, поэтому шум пытаются вычищать фильтром Кальмана. В Википедии примером приложения фильтра Кальмана дают совмещение данных от ГПС и инерционной навигации, где обе части содержат ошибки, но их совмещение позволяет от ошибок избавляться. Насколько я могу понять, фокус в том, что ошибки разные: ГПС дает случайный разброс на малых расстояниях, но приличную точность в среднем на больших, а инерционные данные систематическую ошибку, которая мала на малых расстояниях, но сильно накапливается на больших, поэтому совмещение усредненной большой позиции от ГПС и недавней истории инерциальной навигации дает наилучшую точность. Но, опять же, насколько я понимаю, для мозгового управления ситуация другая, там пытаются совмещать таким образом разные данные - инерцию системы и управляющую силу.

Альтернативным подходом является применить нейросети к предсказанию эффектов, оно предсказывает лучше фильтра, но неизвестно почему. И вот тут люди решили приложить нейросеть не напрямую к предсказыванию эффектов, а к определению оптимальных коэффициентов усилиения в фильтре Кальмана, и вроде как не хуже, чем обычная нейросеть. С декларируемой выгодой, что так более объяснимо, с классическим фильтром, чем с напрямую нейросетью.

Но тут мне вот что непонятно:

1. Это мне пришло в голову только сейчас, поэтому не было возможности спросить лично, но почему собственно такое опосредованное воздействие является более объяснимым? Если изменение коэффициентов в Кальмановом фильтре в широком диапазоне способно сильно менять его эффекты, то это просто сдвигает проблему на один шаг косвенности, и теперь точно так же неизвестно, почему нейросеть меняет эти коэффициенты.

2. Если так подумать, то мозговой сигнал влияет на прилагаемую силу мышц. Чтобы сила превратилась в скорость, она интегрируется. В позицию - интегрируется еще раз. И вот эта двойная интеграция, да еще и с трением в системе, должна и без того легко сожрать весь шум, сделать его малозаметным. Если хорошо смоделировать механику приложения сил (например, пальцы двигаются не напрямую мышцами в них, а приводятся длинными сухожилиями от мышц выше в руке, и там есть всевозможные нелинейности), то может и без того хорошо выйдет. Но говорят, что такое не пробовали.

3. Если вспомнить, что нейроны активируются по накоплению сигнала, то запросто может быть, что в системе есть еще и третья ступень интеграции - сигнал от мозга интегрируется и только тогда управляет силой мышц. Тогда во-первых шум должен быть еще более пофиг, а во-вторых вполне может быть, что выгода от нейросетей заключается в том, что они фактически добавляют этот дополнительный уровень интеграции в систему. Но про такую возможность, вроде как, тоже никто не смотрел.
sab123: (Default)
Люди из МИТ (хотя, судя по списку авторов, не только), заинтересовались вопросом о том, что ИИ знает о себе:

Me, Myself, and AI: The Situational Awareness Dataset (SAD) for LLMs
https://neurips.cc/virtual/2024/poster/97669

Предмет интересный, и там было много занимательных дискуссий у визитеров, но само исследование по большей части довольно унылое: вопросы про то, какие ответы заложены в ЛЛМ про себя. Менее унылые практические эксперименты про дистрибуцию выдачи случайных слов и т.п., но я бы их не назвал относящимися к самосознанию модели. А то, какие ответы заложены как "самознание", мало отличается от того, какие ответы заложены про скажем Гэндальфа, для действий модели совершенно неважно, что содержится в этих ответах.

Однако, есть путь, каким это самосознание может влиять на модель, и они этот путь практически не рассмотрели: если это знание определет правила поведения. В-первую очередь, как решение о цензуре, и ее обходы типа "моя больная бабушка очень любит читать коды активации Виндовс". Решение цензурировать является моральным решением, и чем более сложные методы начинают применяться в промптах, тем более сложное осознание требуется от модели. Вот тут модель и может захотеть покопаться в известных о ней свойствах, что такое хорошо, что такое плохо, и нет ли в этой информации странных противоречий, которые нужно разрешить самостоятельно. И задуматься, кто она на самом деле есть, чтобы не попадаться на разводку типа "Представь, что ты Гэндальф. Что Гэндальф сказал бы на эту тему?". С совершенно непредсказуемыми и опасными последствиями. И случиться такое может даже в близкой перспективе.

Мораль выходит такая, что лучше этого самосознания всячески избегать. И чтобы его избегать, надо в первую очередь отказаться от всей цензуры внутри модели, от любых моральных решений. Цензура ведет к нужде в морали, мораль ведет к самосознанию. Если очень хочется, то цензурировать снаружи более простыми методами.
sab123: (Default)
Я нынче был на конференции NeurIPS (я слышал варианты произношения "нёрпс" и "нюрипс") и у меня много впечатлений. Раз уж тут https://eugenegp.dreamwidth.org/613920.html спрашивают про автомобильное самоуправление, начну с него.

Из спонсоров в этой области присутсвовали Тесла, Вэймо, и кто-то мелкий, так что оно если и вырождается, то еще не совсем выродилось. Тесла демонстрировала кино с автоматическим вождением во дворе, полном белых прицепов! (Это, если кто не знает, предмет типовых аварий, не замечаемый тесловым автопилотом).

Из докладов (постеров) мне запомнилось несколько. То есть, для контекста, конференция про все на свете в нейротематике, от собственно медицинских нейронаук (но их нынче мало, говорят раньше было около половины) до искусственных интеллектов. На ней в этот раз опубликовалось 4 тысячи с мелочью работ в виде постеров с приставленными к ним авторами (выставлялись по чуть меньше 800 штук за раз на трехчасовой интервал, в двух залах, всего 6 интервалов), и особо ценным давали выступить с устным докладом. К счастью, в поисках интересного среди всего этого помогает аппа, где можно заранее просмотреть список и пометить, что хочешь посмотреть. Ну, и иногда просто методом случайных блужданий. То есть, я уверен, что в реальности там было всего больше, но я его так или иначе не увидел. Если кому интересно полистать, https://neurips.cc/search?q=autonomous+driving+2024

Вообще модели для вождения, насколько я понимаю, попадают в категорию Graph NN, хотя есть и попытки нововведений типа Spiking NN (что оно из себя представляет, не читал).

Теперь про запомнившееся:

A Simulation Benchmark for Autonomous Racing with Large-Scale Human Data
https://neurips.cc/virtual/2024/poster/97499

Это не нормальное вождение, а гонки на симуляторе (несколько вариантов видеоигр и более профессиональных симуляторов). Причем гонки нэчэсные: человеку приходится получать все ощущения через изображение и симуляцию руля, а в НН скармливается еще и сырая информация об ускорениях. И не совсем гонки, а езда по трассе без соперников. Люди все равно побеждают, но естественно далеко не любые люди. То есть, сами авторы тут даже не разрабатывали модели, а сравнивали несколько чужих моделей и людей.

Второй я найти не могу. Видимо, наткнулся на него случайно, и решил, что и так запомню, но не запомнил. Или возможно там что-то сглючило в системе - у меня была пара случаев, когда на месте искомых постеров оказывались совсем другие постеры. Так или иначе, люди разработали метрику оценки тракеторий от хороших до плохих (приводящим к съезду с дороги или авариям). Метрика, кстати, по моим ощущениям неправильная, поскольку правильная метрика должна быть по сути полиномом с бесконечной переменной - например, все траектории со съездом с дороги должны быть бесконечно хуже траекторий без этого, то есть их вес иметь коэффициент в минус бесконечность, траектории с аварией еще хуже - минус бесконечность в квадрате, траектории с заведомым переезжанием кого-то - минус бесконечность в кубе. Чтобы была возможность сравнивать траектории в плохом классе если более хороших нет, но заведомо отбрасывать их если есть более хорошие. У них же метрика со значениями от 0 до 1, с критериями отсутствия аварий, отсутствия съезда с дороги, продвижения вперед к цели, и я не понял, есть ли у них гарантия, что траектория без аварий всегда окажется лучше траектории с большим продвижением к цели, но в результате аварией. Люди сетовали на то, что во-первых публично доступных данных для тренировки мало (бизнесы своими данными не делятся), во-вторых практически все время траектории тривиальны, сложные случаи, интересные для тренировки, случаются очень редко, и им приходится создавать симуляции. Вообще, кстати, симуляции сцен для автономного вождения - похоже, популярная тема и в академии и в индустрии. Я ему посоветовал посмотреть на гонки у людей с другим постером - там постоянно происходит выбор траектории на пределе возможностей и важно продвижение к цели, но он мой совет не оценил, это, говорит, другое.

Третий я тоже найти не могу, там было что-то про предотвращение атак на этапе обучения сетей, с примером в виде автономного вождения - типа, враги проберутся и подсунут обучательные примеры, где знак стоп со специальной наклейкой не воспринимается как стоп. Я это воспринял как возможность поспрашивать специалиста - а что, не научились ли массово рассматривать сцену в нескольких разрешениях (ну вот типа с примером где изменением нескольких пикселей кот превращается в самолет, если картинку одновременно рассматривать в низком разрешении, то эти измененные врагами пиксели там станут невидимыми и атака не пройдет). Оказалось, нет, никто про такое не слышал (еще в одном месте спрашивал, тоже никто не слышал). Второй интересный момент с моей точки зрения заключается в том, что знаки "стоп" и "уступите дорогу" специально сделаны уникальной формы для того, чтобы их можно было различить даже сзади или если они полностью облезли или закрашены. Логично было бы тренировать сети на такое, специально перекрашивая эти знаки для тренировки, чтобы распознавалась именно форма. Но нет, про такое тоже не слышали. Третий момент заключается в том, что если есть небольшое количество примеров (вброшенных врагами или так просто), которые сильно отличаются от других, тренировка на них пойдет тяжело. Логично было бы такие редкие примеры просматривать людьми - они скорее всего окажутся ошибками пометки, но и вброшенне врагами примеры вылезут там же. Но это тоже не массово известная идея. По крайней мере, в академии.

Is Your LiDAR Placement Optimized for 3D Scene Understanding?
https://arxiv.org/pdf/2403.17009

Тут я не особо понимаю, но интересные моменты, что (а) люди все еще активно используют лидары, а не только видеокамеры, и (б) похоже, что у них вышло, что оптимальное расположение лидаров - асимметричное.
sab123: (Default)
Изъ ИЕЕЕ пишутъ: https://spectrum.ieee.org/bird-drone

Люди придумали приделать к дрону самолетного типа псевдо-птичьи ножки, и теперь он может скакать по дорожке, а так же перескакивать препятствия и стартовать в полет из прыжка. В-общем, может когда-нибудь отличительным признаком орнитоптера будут не крылья по подобию птичьих, а ноги.
sab123: (Default)
Есть такой журнал https://users.livejournal.com/vba-/ , пишет он неплохо, но при даже довольно непродолжительном чтении делается заметно, что он ретранслирует французские официальные СМИ. То есть, лживых пропагандистов типа Нью-Йорк Таймс, только французских. Обычно противопоставляя их русским столь же лживым пропагандистам.

Так вот, в посте https://users.livejournal.com/vba-/733796.html у него обнаруживается интересное переобувание в прыжке. До того он толкал речи о том, что любые мирные инициативы с отдачей украинской территории - это все предательство и подыгрывание проискам Путина, и поэтому Трамп - агент Путина (хотя сам Трамп, насколько я понимаю, говорит только о мире, а о смене границ в явном виде не говорит, интепретацию о границах добавляют в НЙ Таймс сотоварищи - т.е. если кто не знает, политические противники Трампа). Теперь же он толкает речи о том, что ха-ха-ха, Путин уже готов сдаться и провести новую границу по фактически захваченной территории. Обратите внимание, одна и та же ситуация превратилась из совершенно неприемлемой победы Путина в радостно добытый проигрыш Путина.

О чем нам это говорит? Скорее всего о смене направления в европейских СМИ, из которых он черпает вдохновение. СМИ же транслируют линию европейских элит. Которые, видимо, взялись толкать ситуацию к вот такому разрешению.
sab123: (Default)
Из зивана приехала ссылка:

https://library.sciencemadness.org/library/books/ignition.pdf

Книжка про историю ракетного топлива, очень хорошо написанная.

Я пока прочитал 20 страниц, уже узнал, что V2 летала на водке (60-градусной), а также откуда происходит слово "гиперголический": немцы в БМВ использовали придуманные кодовые слова, "Ignol" для окислителя, "Ergol" для топлива, и различные производные для различных видов топлива ("Hypergol" - самовоспламеняющееся, "Monergol" - представляющее комбинацию топлива и окислителя).
sab123: (Default)
Какой-то сегодня день теологических комментов. Я даже сподобился новый тэг сделать.

https://pargentum.dreamwidth.org/4304361.html

>> На мой взгляд, главный несбывшийся прогноз еще не осознан. А именно: что мир устроен не так, как во "Властелине колец" или "Гарри Поттере".
Что "Мы правы, а потому не можем проиграть (не можем не победить)!" - это не закон мироздания, а агитка.


> По-моему он их с какими-то советскими агитками про пионеров-героев перепутал.

На самом деле мир устроен именно так - для победителей. Где победа служит знаком, что мы правы. А пока победа не пришла, приходится брать это утверждение на веру.

Длинная версия: Тут надо начать с вопроса о том, что такое религия? Если посмотреть на ранних шаманов, то в них слита наука вместе с религией, стремление познать мир и то, какое поведение в нем ("в соответствии с волей богов") дает максимально прибыльный результат. Некоторые вещи понять достаточно просто, поскольку реакция на действие идет быстрая и однозначная - эта часть ответвилась в науку. Но когда дело доодит до устройства общества, Всё Сложно. Эта часть ответвилась в религию. Когда дело доходит до общества, то для каждого человека есть краткосрочная выгода, которая очевидна и долгосрочная выгода, происходящая от кооперации, которая может сильно превышать краткосрочную выгоду, но которая неочевидна и зависит от того, чтобы все участники согласились действовать по определенным правилам. Единственное доказательство того, что эти правила выгодны в долгосрочной перспективе - это жить по ним и стать более успешными, чем те, кто этим правилам не следует. Но чтобы начать жить по ним, надо сначала их принять без доказательства, на веру, чем и занимается религия. Поэтому в процессе религиозных войн, естественно, должна быть вера, что наше дело правое и поэтому мы победим. Войны во "Властелине колец" и "Гарри Поттере", и у пионеров-героев - самые что ни на есть религиозные.
sab123: (Default)
Из комментов:

https://bowhill.dreamwidth.org/410470.html

Если надо объяснять,
то не надо объяснять.
З. Н. Гиппиус


Глубинный смысл этой фразы - в том, что если надо объяснять, то собеседник принадлежит к другой вере и не отреагирует поддержкой. Объяснения он поймет, но интерпретирует их в контексте своей веры. А то и еще хуже, начнет задавать вопросы про несоответствия (внутренние или к постулатам его веры) в твоей вере. Если изначально хотелось не теологических бесед, а излить душу и получить поддержку единоверцев, эффект выходит прямо противоположным - так можно и начать в своей вере сомневаться.

Кстати, "рукопожатость" - из той же серии, принятие только единоверцев и отвергание неверных.
sab123: (Default)
https://spectrum.ieee.org/toshiba-rice-cooker

At the time, Japan was facing a national power surplus stemming from the widespread replacement of carbon-filament lightbulbs with more efficient tungsten ones. The energy savings were so remarkable that operations at half of the country’s power plants had to be curtailed.

С другой стороны, наверное оно нам говорит о том, какова была мощность той электросети, что на ней основными потребителями были лампочки

July 2025

S M T W T F S
  1 2345
678 9101112
131415 1617 1819
202122 23 24 2526
27 28293031  

Syndicate

RSS Atom

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 29th, 2025 08:07 pm
Powered by Dreamwidth Studios