ITT, мы будем алгоритмизировать алгоритмизацию алгоритмизациоанальную. Алгоритмизацианалично, и алгоритмизациоаналистично. Приготовь свой алгоритмизациоанал, для аналлизирования различных алго, невъебенных.
Вы знаете какую-нибудь книгу по алгоритмам, где в качестве задач - ссылки на задачи с литкода/других тестирующих систем? То, что я наблюдаю в самых популярных книгах - это какое-то позорище. Тестирующие системы существуют уже не менее 20 лет, а они как писали задачи на бумажке, так и продолжают, блять.
1. Читать старые заметки в тех случаях, когда на эту тему есть более свежие — не очень разумно, в частности, как раз по причине подобного рода расплывчатых текстовых описаний. Скриншот более свежей версии данного доказательства приложен. Может быть, так будет понятнее.
2. Не очень понимаю, с какого места объяснять. Вот, скажем, четыре факта:
а) Пусть V — абелева группа, R — ассоциативное унитальное кольцо. Продолжить структуру абелевой группы на V до структуры R-модуля на V — это то же самое, что задать кольцевой гомоморфизм R \to \End(V), где \End(V) — это кольцо эндоморфизмов V как абелевой группы.
б) Пусть V — модуль над ассоциативным унитальным кольцом R. Задать эндоморфизм \varphi : V \to V R-модуля V — это то же самое, что задать отображение множеств {X} \to \End(V), где {X} — это множество с единственным элементом X, а \End(V) — это кольцо эндоморфизмов V как абелевой группы, такое что образ {X} в \End(V) поэлементно коммутирует с образом R. Образ X и соответствует \varphi.
с) Пусть R — ассоциативное унитальное кольцо, V — абелева группа. Задать отображение {X} \to \End(V) и гомоморфизм R \to \End(V), образы которых поэлементно коммутируют, — это то же самое, что задать гомоморфизм R[X] \to \End(V), где R[X] — это кольцо многочленов от переменной X с коэффициентами в кольце R. Это так по универсальному свойству многочленов.
Замечание. Если X переходит в \varphi, то образ R[X] в кольце \End(V) иногда обозначают R[\varphi]. Это про смысл обозначения на картинке.
д) Пусть V — модуль над ассоциативным унитальным кольцом R. Тогда на абелевой группе V^{\oplus I}, где I — конечное множество, индуцируется структура модуля над кольцом (I на I)-матриц с коэффициентами в R.
Скажем, среди этих четырёх фактов что-то конкретно непонятно?
Но вообще, это очень утомительно, такие длинные пояснительные тексты писать. Это не учебник.
P. S. Отмечу, кстати, что по теореме Гамильтона-Кэли у меня нет ощущения какого-то глубокого понимания. Но это к теме имеет мало отношения.
Насчёт пункта а) ещё небольшое пояснение. Пусть R — ассоциативное унитальное кольцо. Обычно структура R-модуля на абелевой группе V определяется с помощью отображения множеств R \times V \to V, удовлетворяющего каким-то аксиомам. Но отображения R \times V \to V естественно биективны отображениям R \to \Map(V,V), где \Map(V,V) — это множество отображений из V в V. Функция от двух аргументов — это то же самое, что функция от одного аргумента в функции от другого аргумента. Это соответствует биекции между множествами X^{Y \times Z} и (X^Y)^Z, где X, Y и Z — множества, из теории множеств. Важнейший факт, различные проявления которого встречаются в математике постоянно, буквально везде, и без которого нельзя понять ничего. Так вот, описание модуля как гомоморфизма в эндоморфизмы отсюда и берется. Это один взгляд. Точно так же действие группы G на множестве X можно задавать с помощью отображения G \times X \to X, удовлетворяющего неким аксиомам, а можно задавать с помощью гомоморфизма группы G в группу перестановок множества X — это одно и то же.
Актуальный материалов тред
Аноним21/07/23 Птн 10:59:25№104297Ответ
Аноны, кидайте сюда актуальные материалы по математике для других анонов, следуя примеру: - Направление - Автор - Название материала - Краткое описание - ваша мини-рецензия на материал
>>105669 По-моему у Бурбаков в Очерках есть дальше про двадцатый век, но я не уверен, и Дьёдонне, но его книжки по истории на русский вроде не переведены. Больше не знаю.
Очередной тред, посвященный основам основ математики - Основаниям. Нет ни одной области математики, гарантирующей непротиворечивые результаты без отсылок к основаниям.
>>105698 > Читай внимательнее, оно не является определением. Является. И оно там прямо приведено. >>105752 Зачем ты все это пишешь? Мог бы просто прочитать в той книге разницу между высказыванием (proposition) и суждением (judgement). Хотя, можешь не стараться, зумми. И так ясно, что мозгов у тебя нет, увы...
>>105921 >Мог бы просто прочитать в той книге разницу между высказыванием (proposition) и суждением (judgement) Ясно. Охуеть какая терминальная стадия необучаемости и окукливания в своем маня-мирке у конструктивного петуха. В общем то уж сколько раз на него ссали, а ему все божья роса. Хуй знает на что я рассчитывал.
В этом треде я буду вести дневник своего прогресса по математике. Постараюсь вести его каждый день, чтобы не создать бесполезный тред и засорить матемач.
>>104703 Беру слова назад, да оно так и переводится. Прошу прощения. Все правильно. Просто тот парень значит был удивлен почему нужно доказывать очевидное. Ну как я обьяснял, полагаю автор просто хотел чтобы я доказал что все фкнкции на сигма алгебре с конечными EX^2 является гильбертовым пространством.
Авгут 2го, 2023, Информация в контексте теории вероятности и условное мат ожидание переменной от дос
Аноним02/08/23 Срд 18:58:30№104871
Часто в теории вероятности и в статистике упоминаются термины из теории вероятности по типу "...содержит информацию, ...частичная информация, ...всю информациб о выборке". Вот и на примере достаточной статистики, когда пытаются его обьяснить как то более интуитивно, то говорят "достаточная статистика это детерминированная функция из элементов выборки в R, который содержит всю информацию выборки относительно параметра распределения".
Вопрос - что вообще значит содержать инормацию о чем то в контексте теорвера? Сам факт того, что я как то подсознательно старался игнорировать этот простой вопрос привел к тому, что мат определение достаточной статистики мне долго казалось непонятной.
Давайте, начнем с более менее простого. Если есть два события A и B, и они независимы, то они обычно не содержат информацию друг о друге. К примеру событие того, что буря на марсе произойдет в 12 часов 12 августа, скорее всего ничего не говорит о включении лампы в это же время в кафе под моим домом. То есть независимость событий говорит об отсутствии информации. Это можно обобщить с событий на сигма алгебры и стохаст. переменные.
ЧТо есть обратная ситуация независимости? Логично, что зависимость. Если мы рассмотрим две события A и В то условная вероятность P(A|B) и есть та информация об А когда мы знаем про B. Конечно если мы обобщим это до стохаст переменных, то информация это условное распределение плотности P(X=x|Y=y).
В таком случае, что значит создать статистику содержащую всю информацию выборки о параметре? Поскольку проблема в том, что вне контекста байесовкой теории вероятности невозможно говорить о априорном распределении параметра, мы как бы не можем создать функцию плотности P(x1...xn|theta). Но есть выход. Если мы собственно зафиксируем точки выборки в совместном распределении, то у нас есть семейство распределений и по нему мы как бы можем проводить некоторую оптимизацию, к примеру метод максимального правдоподобия ка вариант. Но если мы найдем функцию плотности P(x1...xn|t) где t это некая статистика, то мы получим валидную функцию плотности которая также может зависеть от параметра. То есть есть семейство распределений по которму мы снова можем сделать оптимизацию. Но а что если найти загадочную статистику T для которой P(x1...xn|theta) больше не зависит от параметра? Тогда получается что T как бы забрал вместе с собой всю информацию о параметре и функция условной вероятности P(x1...xn|t) как информация о выборке после того мы узнали про статистику, больше не содержит инфомацию о параметре. Условное вероятностное распределение выборки независимо от распределения параметра.
Теперь начинается собственно математика. Нужно конечно доказать множество теорем который гарантируют или отрицают существование такой статистки при каких то условиях, теоремы о свойствах таких статистик, теоремы о том как по хорошему находить такие статистики. Об этом смыса уже нет тут рассказывать поскольку это очевидные такие вот "инженерные" теоремы которые понятны после того как мы поняли в чем проблема. Это уже о вопросе как, а не почему.
Ну вот давайте решим пару задач и после поговорим о экспоненциальной семье распределений.
Покажем, что n-я порядковая статистика из случайной выборки размера n из равномерного распределения с плотностью вероятности f(x; θ) = 1/θ, 0 < x < θ, 0 < θ < ∞, в остальных случаях - ноль, является достаточной статистикой для параметра θ. Затем обобщим этот результат, рассмотрев плотность вероятности f(x; θ) = Q(θ)M(x), 0 < x < θ, 0 < θ < ∞, в остальных случаях - ноль. Здесь, конечно, интеграл от M(x) dx от 0 до θ равен 1/Q(θ).
Чтобы доказать что некая статистика T достаточна, нужно просто доказать что фукциональная форма P(x1,...xn|t= xn) не зависит от theta.
P(x1,...xn|t= xn) всегда имеет форму $\frac{f(x1, \theta)...f(xn, \theta)}{f_{T}(t, \theta)}$
Нужно найти форму $f_{T}(t, \theta)$.
$P[t \leq y | y \in (0, \theta)] = P[все xi \leq y] = P^{n}[x \leq y] = (\int_{0}^{y} \frac{1}{\theta}\mathrm{d}x)^{n} = \frac{y^{n}}{\theta^{n}} = F_{T}(y)$ где y просто фиктивная переменная
$F^{'}(t) = f_{T}(t, \theta) = n \frac{t^{n-1}}{\theta^{n}} $
Функция условной вероятной плотности никак не зависит от параметра а значит n-я порядковая статистика достаточна, но она не уникальна. Это статистика умноженная на число больше одного но меньше $\frac{\theta}{t}$ вполне является достаточной тоже.
Теперь надо доказать общий случай f(x; θ) = Q(θ)M(x). Если мы посмотрим на требование для M(x), то поймем что Q(θ) и M(x) должны быть положительными функциями.
Совместная функция распределения выглядит (Q(θ)M(x))^n мы можем факторизовать его на две положительные функции при условии что M(x) никак не зависит от theta. Я полагаю математически то как выраженна эта функция это подразуемвается. Тогда по критерию Фишера Неймана можно сказать, что n-ая порядковая статистика достаточна.
Авгут 2го, 2023, Информация в контексте теории вероятности и условное мат ожидание переменной от дос
Аноним02/08/23 Срд 18:59:45№104872
Теперь надо доказать общий случай f(x; θ) = Q(θ)M(x). Если мы посмотрим на требование для M(x), то поймем что Q(θ) и M(x) должны быть положительными функциями.
Совместная функция распределения выглядит (Q(θ)M(x))^n мы можем факторизовать его на две положительные функции при условии что M(x) никак не зависит от theta. Я полагаю математически то как выраженна эта функция это подразуемвается. Тогда по критерию Фишера Неймана можно сказать, что n-ая порядковая статистика достаточна.
Помогите решить три задания
Аноним20/02/23 Пнд 22:15:38№101396Ответ
Лично мне кажется, что они равны. Если бы существовала задача, лежащая в NP, но не лежащая в P, какой-нибудь из миллионов индусов-прогеров, ее бы уже нашел.
Интересный для темы факт: существует доказательство невозможности сортировки массива длины n быстрее, чем за O(n*log(n)). Ну, это для тех, чья жопа чувствует, что правильный ответ "не равно" -- можете попытаться построить задачу-контрпример, усложнив обычную сортировку.
>>103234 (OP) Хуй знает. Я как дата сайентист после выпуска из университета (изучал там теорию вычислимости) пришел к мысли, что проблема P=NP максимально завязана на проблеме человеческого разума, то есть необходимости построения математической теории человеческого разума, которая бы четко объяснила смысл появления разума или их зачатков у млекопитающих, поиска общих правил-уравнений, по которым происходит обучение в мозгу, а также зачем млекопитающим нужен сон и что из себя представляют ночные сны. И возможно такая теория должна быть геометрической, очень охуеной и простой, с топологическими пространствами, с новыми метриками и новыми понятием расстояния.
>>103238 Истинность P=NP означала бы, что увидеть что-то также просто, как и сделать это. Что, в общем, правда: допустим, "каждый, кто знает о смерти, умрет". Хотя, многие люди считают, что это не так, и сделать что-то сложнее, чем увидеть. Это потому что их сознание не предназначено для "увидеть". За них это делает внешний мир. Еще, истинное P=NP свело бы весь мир к тульповодству -- представил что-то, и оно сразу есть.
Можно было бы использовать все это для создания пост-человека с его разумом. Это была бы победа над демиургом.
Для доказательства истинности P=NP достаточно найти полиномиальное решение одной NP-полной задачи... мимоОП
>>103234 (OP) > Если бы существовала задача, лежащая в NP, но не лежащая в P, какой-нибудь из миллионов индусов-прогеров, ее бы уже нашел. Проблема не в том, чтобы найти такую задачу, а в том, чтобы доказать, что она действительно обладает указанными тобой свойствами. Так что программисты тут ни при чём. Программистам как раз уже давно известно огромное количество задач, лежащих в NP, про которые при этом не удаётся доказать (или опровергнуть), что они не лежат в P.
>>103234 (OP) > существует доказательство невозможности сортировки массива длины n быстрее, чем за O(n*log(n)). Во-первых, быстрее чем за Omega(n log(n)). Во-вторых, такого утверждения, как ты озвучил, вообще нет. Оно верно только для отдельно взятой модели вычисление - модели, в которой из разрешённых операций есть только сравнения.
> Кидайте сюда литературу по теме Начни со школьных учебников по информатике. У тебя явно где-то на том уровне уже пробелы есть.
>>103238 > изучал там теорию вычислимости Точно изучал? Дело, видишь ли, в том, что теория вычислимости имеет примерно никакое отношение к классам сложности вроде P и NP. А теория, в которой эти классы изучаются, называется теорией сложности вычислений.
зы. Теория вычислимости тоже существует. Но она про другое.
двачера помогите надо найти какой-то многочлен f(x) с делителем (x³+x²) посчитал 3x+1 последние члены f(x) остаток f(x) от (x+1) равен 7 помогите многочлен f(x)
>>103199 (OP) Начинайко тред для кого? У тебя ошибка в условии. Если (x^3+x^2) делит f(x), то f(x) делит и (x+1) f(x) = (x^3+x^2)P(x) = (x+1)x^2P(x) У тебя же по условию остаток от деления на (x+1) равен 7, такого быть не может.
Сап, математач! Кто-нибудь шарит в графах? Нужно понять, как доказать, что минимальное рёберное покр
Аноним02/06/23 Птн 12:14:25№102849Ответ
Сап, математач! Кто-нибудь шарит в графах? Нужно понять, как доказать, что минимальное рёберное покрытие имеет мощность не более чем ND/(D+1), где N - число вершин, а D - максимальная степень вершины. Предполагается, что в графе нет изолированных вершин. Пока в голову приходит только то, что можно взять вершину, имеющую максимальную степень, и в покрытие включить все инцидентные ей рёбра, тем самым покрыв D+1 вершину D рёбрами, затем исключить все покрытые вершины из графа и продолжить этот процесс, пока граф не опустеет. Но проблема в том, что в процессе такого удаления частей графа могут появиться изолированные вершины, которые в результате останутся непокрытыми.
может наоборот, выбирать вершину с минимальной степенью и ее удалять? Тогда вроде все норм должно быть, и отношение ND/(D+1) должно сохраняться, и изолированных вершин не должно появляться
может наоборот, выбирать вершину с минимальной степенью и ее удалять? Тогда вроде все норм должно быть, и отношение ND/(D+1) должно сохраняться, и изолированных вершин не должно появляться
Матаны, вот вам задачка из диффуров (в интернетах ответа не нашёл): y"=y'lny' Как решается сие чудо
Аноним16/05/23 Втр 13:24:38№102630Ответ
Сап, двач! Захотелось вспомнить молодость и перепройти (нормально) весь материал по статистике. Обратно 2 курс мне никто не вернет, так что изучаю все самостоятельно и несколько хаотично. Так вот, может кто-то пояснить за критерий согласия Пирсона (хи-квадрат), а именно - как его вычислить и как интерпретировать результаты? В идеале хочется иметь пошаговую инструкцию для самых маленьких, с объяснением всех букаф в формуле. Может, ты можешь объяснить сам или у тебя есть видос, где это делают? С меня как обычно ничего
>>102122 Проходил мимо, решил глянуть что там > C вероятностью 95 распределению нельзя доверять данным А если на милиписечку подкрутить данные то тогда можно будет на 95 процентов доверять - ну и бред. Алсо, на какой планете их учат такому ебнутому выговору. Алсо, такие объяснения для обезьяны - взял с нихуя определение подставил там числа, посчитал - в рот я ебал. Причем в "высоких материях" вроде топологии такая же хуита - понасрут ебнутых определений и ни мотивировки ни хуя. Зато можно бежать решать говнозадачи как ебнутый.
>>102126 Это для чайников объясняется. Те, кто вкатывается основательно, изучат эту версию, потом по учебникам вникнут в более продвинутую. Остальные видосы на ютубе оказались слишком сложны по сравнению с этим.
>Зато можно бежать решать говнозадачи как ебнутый Большинству людей эти знания нужны именно для этого, решать задачи или просто устный экзамен сдать.
>>102128 >Большинству людей эти знания нужны именно для этого Ну как бы да... но в основном потому что это самое большинство ебут этими говнозадачами без остановки, ведь решение говнозадач - это главное мерило всего на свете (у ебнутых) Также у большинства людей хоть раз возникнет вопрос - а почему так и из какой залупы все это высосано? Но ответом им будет звонкая тишина.
>>102137 Ну, если им неинтересна статистика. Тебя вот эти вещи заинтересовали, ты увидел в них красоту, а кто-то живет другим. Мне надо к экзамену подготовится, но при этом я вижу, что статистика объясняет мир. Обидно, что времени мало, чтобы разобраться во всем этом многообразии, как-нибудь потом надо вкатиться. Интересно, смогут ли когда-нибудь эти знания стать чем-то повсеместным вроде таблицы умножения по степени применимости и оценке чего-либо. Уже условные политологи и маркетологи все это изучают.
Реальная математика
Аноним18/03/23 Суб 08:43:37№101834Ответ
ИТТ обсуждаем фундаментальные проблемы математики и вещественного мира, разоблачаем лженауки и затуманивание мозгов РУСов еврофашистами,ведем счет древних РУСов
Аноны-математики, шарящие в дискретной математике, а именно в графах. Подскажите, пожалуйста, как с помощью алгоритма Краскала можно найти реберную связность графа, то есть минимальное количество рёбер, удаление которых сделает граф бессвязным.
Да я читал информацию и знаю, что реберную связность можно найти с помощью алгоритма поиска максимального потока, но мне нужно именно через реберную связность.
Помогите советом, пожалуйста, как это сделать используя алгоритм Краскала?
Если дословно, то задача выглядит так пик, эта задача легко решается с помощью алгоритма поиска максимального потока, а как с использованием Краскала и комбинаций/сочетаний -- ума не приложу. Может кто из умных анонов подсказать?
О, вы! Смотрящие над миром Вы наши судьи и учителя Хоть вы за гранью бытия Оценки в аттестатах, баллы Долги на карте, ставки, паспорта Под вашим руководством и началом Мы здесь и там Мы с вами навсегда!
Все есть число От дня рожденья до ухода От первой цифры до итоговой черты Хоть Пифагор и был почти что богом Про числа знаем и немало мы
>>101043 >че это за группы Ну указано же - число чисел с общим НОД числа m и меньшего его. Так для m=10 получится 4 группы: {1,3,7,9}, {2,4,6,8}, {5}, {10} для n = 1, 2, 5, 10 соответственно.
>объясните, пожалуйста, каким образом эта сумма равна m?
Ох! Давайте по порядку.
Для начала, наводящие вопросы, вот есть у нас число взаимно простых для числа $a$, $\phi(a)$ и пусть есть взаимно простые $a_{1}$ и $a_{2}$. Чему равно $\phi(a_{1} \cdot a_{2})$?
Если $p$ - простое и $\alpha>0$ - целое, чему равно $\phi(p^{\alpha})$?
Дальше, чему при тех же условиях равно $\sum\limits_{k=1}^{\alpha}{\phi(p^k)}$?
А дальше обобщаем для произвольного составного числа.
В школе реально кайфовал от матеши, ибо интересно, не сложно, проблем не было в понимании. И вот попал я в норм уник, конкурс ебанутый был. Спецуха около айтишная, матана дохуя, причём хардкорного такого. Первый курс кое-как пережил, на втором началось осознание того, что я то нихуя не шарю в матеше (первый курс +- пинал хуи и садился учить только перед сессией или коллоквиумами). Вокруг меня сплошные гении, которые моментально соображают, что да как работает, я же не понимаю вообще нихуя. На лекциях тупо аутирую, записывая слова лектора в конспект на автомате ибо из-за скорости диктовки могу лишь писать, без понимания. Пытаюсь как-то разобраться дома, перечитываю лекции, но один хуй, чтобы хоть что-то понять приходиться тратить много времени + по итогу понимание лишь частичное. Осознание того, что я что-то понял приходит только, когда мне какой-нибудь чел всё максимально разжует. Но, когда поступает новый материал, я опять сижу в диком ахуе, не могу связать одно с другим. Практические задачи решаю только по шаблону, понимания не хватает, чтобы приходить к решению самостоятельно, а даже если и вроде как понимаю, то на практике попускаюсь. Если есть понимание темы, то становиться дико интересно, но когда материала много и не получается его осознать, просто опускаются руки и я скатываюсь к обычному заучиванию в надежде, что в будущем это поможет. Например доказательства теорем, для меня это просто лютый пиздец, любое доказательство больше чем на страницу в большинстве случаев превращается ебанутый ад для моего мозга.
Как правильно читать научную литературу с кучей терминов, чтобы понимать без заучивания? Как научиться моментально понимать о чем идёт речь и связывать одно с другим? Как вообще изучать математику с кайфом, не чувствую боли в заднем проходе? Как вообще хоть что-то понять?
>>99060 (OP) 1) Что у тебя со школьной математикой и БАЗОЙ? 2) Больше половины населения планеты мозгом не вышли и чисто физически никогда не смогут понимать сложную математику. Есть вероятность, что ты среди их числа.
Но, однако, возможно ты способен, но просто не раскрыл свой потенциал. Тут поможет только больше тренироваться и учить, все.
Еще есть вероятность, что у тебя хреновый препод и хреновые учебники. Иногда одну тему смотришь у одного человека - ничего не понятно, потом ее же смотришь у другого - все оказывается понятно.
Народ, а как пользоваться latex? Где его можно бесплатно в полной комплектации скачать? Там можно св
Аноним# OP30/12/22 Птн 02:49:42№100549Ответ