Get Mystery Box with random crypto!

Numbers Station Omeґа

Логотип телеграм -каналу numstation — Numbers Station Omeґа N
Логотип телеграм -каналу numstation — Numbers Station Omeґа
Адреса каналу: @numstation
Категорії: Блоги
Мова: Українська
Передплатники: 464
Опис з каналу

Борюсь зі свідомістю, резоную з реальністю, ненавиджу (насправді ні) ХХІ ст. Філіал церкви свідків Пітера Уоттса
Спочатку тут були меми, зараз - amateur non-profit навукпоп з любов'ю до математики
Зв'язок та nudes сюди: @send_xfiles_bot

Ratings & Reviews

3.50

2 reviews

Reviews can be left only by registered users. All reviews are moderated by admins.

5 stars

1

4 stars

0

3 stars

0

2 stars

1

1 stars

0


Останні повідомлення 3

2021-04-10 17:51:50



3blue1brown всегда интересно смотреть,

а отдельно приятно, что «The book shown at the start is Vladimir Arnold's (excellent) textbook on ordinary differential equations» ( https://biblio.mccme.ru/node/6102/ )
455 views14:51
Відкрити / Коментувати
2021-02-11 18:58:00 Головний тезіс: calculus (іноді можна перекласти як матаналіз) – це інструмент для роботи з довільно малими й довільно великими величинами, проте не з нескінченними та не з нульовими. Основне поняття матаналізу – ліміт (границя) – це не кришталевий шар, який…
250 views15:58
Відкрити / Коментувати
2021-02-11 18:44:46 Головний тезіс: calculus (іноді можна перекласти як матаналіз) – це інструмент для роботи з довільно малими й довільно великими величинами, проте не з нескінченними та не з нульовими.
Основне поняття матаналізу – ліміт (границя) – це не кришталевий шар, який може показати, що буде на наскінченності чи в нулі; ліміт показує тенденції та закономірності. Єдине, на що схоже 1/n при n->+inf – це 0. Єдине, на що схожа середня швидкість за довільно малий момент часу – це похідна координати. Єдине, на що схожа сума купи малих прямокутників (тобто визначений інтеграл) при довільному зменшенні їх ширини – площа фігури.
Виглядає абстрактно, але це поки найкращий опис суті матаналізу що я бачив


307 viewsedited  15:44
Відкрити / Коментувати
2021-01-30 21:31:19
https://twitter.com/kenshirriff/status/1355573892090224642
432 views18:31
Відкрити / Коментувати
2021-01-30 13:53:55
До речі, з великим задоволенням пройшовся по цій статті з magic numbers
https://rachelbythebay.com/w/2020/11/26/magic
src
450 viewsedited  10:53
Відкрити / Коментувати
2021-01-30 13:40:43 https://en.m.wikipedia.org/wiki/Illegal_prime
One of the earliest illegal prime numbers was generated in March 2001 by Phil Carmody. Its binary representation corresponds to a compressed version of the C source code of a computer program implementing the DeCSS decryption algorithm, which can be used by a computer to circumvent a DVD's copy protection
463 views10:40
Відкрити / Коментувати
2021-01-28 19:11:10 The Core Computational Principles of a Neuron – найцікавіше. To spike or not to spike Convergence towards principles always leads to simplification and generalization, but it can be dangerous. The brain is too diverse. You can simplify too much and lose something…
70 voters395 views16:11
Відкрити / Коментувати
2021-01-28 19:02:21
В очень хорошей статье о вычислительных принципах нейронов есть интересная идея. «Нейроны обучаются, чтобы выжить» – то есть нейрону надо стать активным, чтобы получить питательные вещества. И чем чаще он активен, тем дальше он от смерти [но тем больше ему надо питательных веществ]

Вообще запутанные отношения между нейронами можно отчасти описать через конкуренцию и сотрудничество: ещё одна задача нейрона – поддерживать гомеостаз, и для этого он активно влияет на своих соседей, в том числе подавляя активность некоторых различными способами. Ну и один из самых страшно интересных вопросов: как вообще из этого шума и борьбы получается в итоге сложное поведение и ещё более сложные переживания?

https://medium.com/the-spike/neuron-core-computational-principles-ed0fe9cfb711
348 views16:02
Відкрити / Коментувати
2021-01-28 19:02:21 The Core Computational Principles of a Neuron – найцікавіше.
To spike or not to spike

Convergence towards principles always leads to simplification and generalization, but it can be dangerous. The brain is too diverse. You can simplify too much and lose something important. Let’s dare to try.

Learning is essentially a search for the right function.

Some neurons transmit information by the frequency of spikes. For example, the more a motor-neuron activates in the spinal cord, the stronger the muscle contracts. For a long time, people thought that other neurons in the cerebral cortex send information in a similar way.

For many decades, the idea of frequency coding was dominant. Even now, artificial neural networks use the same coding (real numbers). But a nasty problem ruins the frequency view: to “measure” the rate of firing you need to wait for a long time (hundreds of milliseconds) to average spikes. (Сильно відчуваються співвідношення невизначеності для хвиль, приємно)
However, taking into account the time for spike generation, spike propagation and total path length there is just enough time to send 1–2 pulses… and no way to wait longer to “send” the frequency of firing.
Therefore, individual spikes (0 or 1) somehow should be enough to transmit information. Currently, the prevailing idea is that an individual neuron does not send a lot, but many of them can encode anything (population coding).

For the last 20 years, people showed that the [number of possible behaviors] of a biological neuron is much larger than previously thought. It turns out that the dendrites do not simply transmit the signal but also process it along the way. If a dendrite gets activated too much, it can amplify the signal (an event called a dendritic spike).Thus, synapses that are active close in space and time excite the cell much larger than simultaneous but non-local signals. Thus new learning paradigm: not only neurons' weights but their locations also store information.

In reality, synapses are very unreliable and stochastic. Often, neurons fail to transmit the signal. Interestingly, it may be not the weakness of evolution that could not invent reliable wires, but the discovery of how to make learning more efficient.
In contrast, the loss of some transistors could damage the whole chip and the computer stops working. Brain architecture is evolved to be stable to errors, to failure of neurons and synapses.
“will my algorithm still work if I remove 10% of neurons? Or 20%?”

Це перша частина. Друга буде у вигляді репосту з якого й дізнався про статтю
365 viewsedited  16:02
Відкрити / Коментувати
2021-01-25 10:00:19 Как часто два плюс два равно пяти? Оказывается, в некотором смысле даже чаще, чем четырем!

https://mobile.twitter.com/andrejbauer/status/1296555230184837122

А именно, есть 2453 коммутативных полукольца с единицей размера не больше 6, в которых 2+2=5. Понятно, что такие вещи можно перечислять только алгоритмически, что и сделал этот пользователь твиттера ( выводы программы на картинках). Полукольца, в которых 2+2=5, составляют почти 80% всех коммутативных полуколец с единицей размера не больше 6.

Интересно, какова асимптотическая доля полуколец, где 2+2=5 или 2+2=4?
459 views07:00
Відкрити / Коментувати