Добавить любой RSS - источник (включая журнал LiveJournal) в свою ленту друзей вы можете на странице синдикации.
Исходная информация - http://forum.sources.ru. Данный дневник сформирован из открытого RSS-источника по адресу http://forum.sources.ru/yandex.php, и дополняется в соответствии с дополнением данного источника. Он может не соответствовать содержимому оригинальной страницы. Трансляция создана автоматически по запросу читателей этой RSS ленты. По всем вопросам о работе данного сервиса обращаться со страницы контактной информации.[Обновить трансляцию]
OpenGL, давай сначала обговорим терминологию тогда. Кривая Пеано – это что? Семейство кривых, удовлетворяющих методике, впервые описанной Пеано или-таки конкретный пример кривой, построенной самим Пеано по его же методике?
Добавлено Vesper, так я ни не говорил, что доказательно неверно, я сказал лишь, что оно для меня неочевидно. Просто потому, что для тебя эта очевидность может оказаться заблуждением. Предупредил о возможности и обосновал свои сомнения. Так-то я просто не думал плотно над схемой рассуждений. Мне тупо некогда, сам видишь, насколько часто и надолго я на форум захожу. И эта канитель уже с полгода, и конца пока не видно.
Qraizer: sergioK, предлагаю тебе выйти из беседы. не надо рассуждать о материях, о которых ты слышал лишь краем уха в паре постов.
Добавлено
P.S. ISO можешь сразу в топку, имеющиеся у тебя сертификаты на стенку для историй на пенсии. Не с этими стандартами в высококритичность, они подходят не более чем для бизнеса или максимум военки.
Не на всех операциях, но добавление элемента у LinkedList всегда O(1), а у ArrayList/ArrayDeque в худшем случае O(n).
Ты ещё пойди поймай этот худший случай. И ты не учитываешь, что у LinkedList по сравнению с ArrayDeque:
1) создаётся объект ноды на каждый элемент, что нагружает GC;
2) каждая нода хранит 3 указателя, что увеличивает потребление памяти в 3 раза независимо от количества элементов (в случае с AD зависит от size/capacity, заполненный даже наполовину AD имеет меньший оверхед по памяти);
3) ноды могут распологаться в памяти где попало, что отменяет возможную векторизацию при доступе.
О, эти рассуждения вида «что хотел сказать / имел ввиду автор»
Автор, судя по всему, просто некомпетентный лопух. Односвязные списки в скале он видите ли любит, а LinkedList в жава это "совсем другое дело".
Односвязные списки в ФП - вынужденная мера из-за требования иммутабельности, а в плане производительности они полное говно.
Даже сраную Deque в ФП приходится городить на паре односвязных списков, из-за чего удаление элемента с хвоста может встать в O(n), а у обычного двусвязного списка эта операция всегда занимает O(1).
Лично я не люблю односвязные списки, я мирюсь с ними.
Извините, у вас какая-то каша в голове:
1. Философия ничего не даст. Гносеологии - индукция и дедукция. Дедукция - от общего к частному (от алгоритма к данным). Программирование - дедукция. Индукция - от частного к общему. Машинное обучение - индукция.
То-то по гносеологии пишут многотомные издания. Вот например. И всё, чтоб объяснить, что индукция это от частного к общему, а дедукция - от общего к частному? Важно как осуществлять эти процессы. Помимо индукции и дедукции есть и другие методы познания.
2. Кто вам сказал, что NN только обучение с учителем? Есть ещё обучение с подкреплением. Читайте про АльфаГО компании deepmind.
С подкреплением это с тем же учителем. Когда есть чёткие правила разметка данных делается сама собой - проиграл-выиграл. И рубись сам с собой пока не научишься.
Кроме того, надо было подобрать архитектуру нейронки чтоб она более не менее училась этому ГО. И так под каждую задачу.
ИИ должен быть универсальным. Работать вообще без вмешательства человека или с минимальным вмешательством. Человек показал задачу, ИИ подумал, дал ответ. Всё равно какую задачу - выиграть в шахматы или доказать теорему Ферма.
[/size][/color]
По мнению шолле, дальнейшее направление развития - синтез индуктивного и дедуктивного подходов. Как в диалектике Гегеля тезис+ антитезис=синтез.
Синтез подходов муравья и паука - это путь пчелы у Бэкона.
Ведь наука и есть синтез 2 подходов. Был учёный муравей Аристотель, который тупо собирал факты. И был учёный паук платон.
Аристотель и Платон - философы, а не учёные. Философия не наука.
Добавлено
Познание наукой не ограничено. Теория познания разделяется на гносеологию - теорию познания вообще и эпистемологию - теорию научного познания. Наука не единственный метод познания. Про это часто забывают.
Сейчас специально посмотрели табличку за 2014 год по разным играм. Самый лучший результат в игре Video Pinball в 25 раз лучшего игрока-Человека. В игре pong и теннис - 143%. В 1.4 раза лучше человека. А вот с игрой Монтесума ревенж машина не справилась (0 очков)
Автомобиль бегает быстрее человека. ЭВМ быстрее считает. Ну и чо?
Добавлено
Узкоспециализированный инструмент (слабый ИИ) всегда лучше выполняет свою задачу, чем универсальный (сильный ИИ).
Добавлено
Алгоритмизация именно научного познания (в строгом смысле, который даёт философия науки) выполняется относительно легко, и есть тому примеры. Роботы-учёные. Задача учёного - проводить эксперименты и систематизировать их результаты по некоторой целевой функции.
доктор Рагин: Слишком это похоже на игру где каждый пишет фразу и передаёт бумажка следующему игроку и так по кругу) тоже может получиться прикрльно!:)
доктор Рагин: Кстати по поводу сложностей с разметкой наборов данных: в генеративных NLP-моделях с этим проблем нет. Скачивание из интернета набор текстов и убираете случайное слово в каждом предложении и дальше учите модель предсказывать слово. Хотя имхо GPT-3 - тупиковый путь. Да эта генервтивная модель чат- бот может писать связные сочинения. Написала прекрасное эссе на тему почему не стоит бояться ИИ. Имхо просто ловкий фокус - имитация сильного ИИ.
Добавлено
Тоесть модель научилась предсказывать слова в корпусе текстов и затем пишет сочинение слово за словом по заданному началу (затравке)
Что ты хочешь сказать? Качественный код можно не писать? Можно так более менее или хуже?
Что корректность твоего кода не должна зависеть от корректности окружения, с которым он взаимодействует. Пришла тебе от термодатчика температура пациента 1180,8° (нарушение единичного события) или там пульс INT_MIN (по IEEE это вполне себе целочисленная неопределённость). Причина – плохой контакт на разъёме. Ну как, вторая стадия уже на подходе?
Я уже рассказвывл историю с операцией сыну, как бы ты среагировал в такой систуации?
Поинтересовался, правда ли, что этот софт не относится к высококритичному и при утвердительном ответе попросил бы сертификат. В любом случае уже б в уме сочинял заявление. А что?
Добавлено
Если ты к тому, что а вдруг тебе бы пришлось этот софт писать, беги от подобных заказов. Стадии ещё не кончились, впереди ещё три. И сесть может быть и не сядешь, но как себя поведут твои начальники и заказчики, предсказывать не берусь.
Стоимость цикла разработки от ТЗ до выдачи в эксплуатацию высококритичного ПО оценивается в полтора миллиона человеко-часов на мегабайт сырцов. Помножишь на свою зарплату сам.
Ответ очевиден - по одной и той же причине.
Чтобы и пиво и бургеры ели как можно быстрее и чаще.
А тот, кто не съел - срочно бежал за новой порцией.
Которую надо употребить как можно скорее.
Чтобы опять пойти за новой порцией..
доктор Рагин: Имхо alphaGO - вершина индуктивного подхода. Если бы жизнь была игрой с чётко заданными правилами и целевой функцией в виде кол- ва очков, то это и был бы сильный ИИ.
Добавлено
По мнению шолле, дальнейшее направление развития - синтез индуктивного и дедуктивного подходов. Как в диалектике Гегеля тезис+ антитезис=синтез.
Добавлено
Ведь наука и есть синтез 2 подходов. Был учёный муравей Аристотель, который тупо собирал факты. Его книга "физика" - клад различных фактов и наблюдений. И был учёный паук платон. Платон тянул науку из себя. Считал, что не надо изучать природу, а надо изучать идеальный математические объекты. Грубая природа для плебеев. На академии Платона была надпись: не знающим геометрии вход запрещён. Эвклид - ученик академии Платона.
Добавлено
И дальше Галилей придумал как синтезировать оба подхода. Так родился современный научный метод познания. И сейчас нужен некий подобный синтез.
доктор Рагин: Извините, у вас какая-то каша в голове:
1. Философия ничего не даст. Гносеологии - индукция и дедукция. Дедукция - от общего к частному (от алгоритма к данным). Программирование - дедукция. Индукция - от частного к общему. Машинное обучение - индукция.
Добавлено
2. Кто вам сказал, что NN только обучение с учителем? Есть ещё обучение с подкреплением. Читайте про АльфаГО компании deepmind. Как дипмайнд обучил нейронку играть в игру атари. Там нет размещённых наборов данных. Просто на входе экран игры и кол-во набранных очков на выходе. Перед машиной стоит задача максимизировать очки.
Добавлено
Сейчас специально посмотрели табличку за 2014 год по разным играм. Самый лучший результат в игре Video Pinball в 25 раз лучшего игрока-Человека. В игре pong и теннис - 143%. В 1.4 раза лучше человека. А вот с игрой Монтесума ревенж машина не справилась (0 очков)
Добавлено
В го миллион копий нейронки рубились по принципу должен остаться только 1 самый сильный.
И почему если пиво портится за сутки, то это из-за натуральности, а бургер из макдака, который тоже портится за сутки - это из за проклятой химии?
Ответ очевиден - по одной и той же причине.
Чтобы и пиво и бургеры ели как можно быстрее и чаще.
А тот, кто не съел - срочно бежал за новой порцией.
Которую надо употребить как можно скорее.
Чтобы опять пойти за новой порцией..