jourmager
Advanced Member | Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору AlVaKo Цитата: Если нет желания переходить на 64-битное приложение, тогда курите это... Chungkwong Chan. Memory-efficient and fast implementation of local adaptive binarization methods. И требование к диким объемам памяти отпадут за ненадобностью. | Угу. Покурил по диагонали. Статья 2019 года коротко описывает преимущества локальной бинаризации - методы Niblack (1985 год), Sauvola (2000 год), Wolf (2002 год) над Otsu (1979 год). Эти титаны мысли предугадали ограничение памяти в 2 ГБ в далеких 1985, 2000, 2002 годах. TelecomUral Цитата: я не про то, как реализован алгоритм. Я про невозможность распараллеливания зависимых алгоритмов процессов. | Как раз про это. И зачем в данном случае распараллеливать? Цитата: Коммерчески да, а технически всё равно очередь последовательных расчётов. Потому что одному куску алгоритма надо знать чего там предыдущий кусок насчитал. | Как раз коммерчески нет, потому что невыгодно - слишком дорого думать. А технически как раз выгодно - запустите распознавание на Файнридере на 1 ядре и на 4. Или сжатие нескольких файлов на ПДФ-ИксЧейдж Тулз на 1 ядре или на 4. И посмотрите на результат. Это легко - одну галочку поставить. И всё прекрасно распараллеливается - как раз так, как вы описали. AlVaKo Цитата: Это для программиста, который хочет реализовать в своей программе бинаризацию методом вроде Сауволы-Вольф. | Метод бинаризации Вольфа (Wolf) уже реализован и в СканКромсаторе и в СканТейлоре. Цитата: Для простых пользователей SK/ST там ничего интересного нет. | Ну да, там нет самого интересного - а на каких именно изображениях лучше применять один метод, а на каких другой? И как настраивать параметры для локальной бинаризации? Кстати, принципиальные ограничения Ниблэка и Сауволы уже давно описаны - поэтому и появился алгоритм Вольфа. | Всего записей: 832 | Зарегистр. 04-11-2019 | Отправлено: 15:32 14-02-2024 | Исправлено: jourmager, 15:57 14-02-2024 |
|