На главную страницу AlgoNet В сотрудничестве с ZDNet
АРХИВ СТАТЕЙ 2002-1-9 на главную / новости от 2002-1-9
AlgoNet.ru
поиск

 

Место для Вашей рекламы!

 

Все новости от 9 января 2002 г.

Ученые совершили прорыв в области компрессии данных

Молодая компания из Флориды ZeoSync, с которой сотрудничает группа знаменитых математиков, объявила о достижении, сокрушающем теоретический предел степени уплотнения данных при их хранении и передаче.

Если открытие ZeoSync подтвердится и его удастся успешно реализовать в коммерческих устройствах, на полувековых исследованиях в области компрессии данных и основанных на них постулатах, которыми пользуются в индустрии связи и других отраслях, будет поставлен крест. ZeoSync утверждает, что ее ученым удалось найти способ компрессии случайной информации — без потерь — более чем в 100 раз. Это по крайней мере на порядок больше того, что допускают известные алгоритмы уплотнения. «Либо это очередная афера типа „холодного ядерного синтеза”, которая скоро сгинет, либо открытие, претендующее на Нобелевскую премию. Я пока не могу сказать ничего определенного», — прокомментировал Дэвид Хилл (David Hill), аналитик Aberdeen Group, специализирующийся на устройствах хранения данных. (В 1990-м году группа ученых из Юты потрясла научный мир заявлением о долгожданном решении проблемы холодного ядерного синтеза, которое вскоре было опровергнуто.) Хилл, единственный независимый аналитик, высказавшийся по поводу этого анонса, считает, что предложение ZeoSync теоретически выполнимо, но для его практической проверки потребуются годы.

Компания ZeoSync основана предпринимателем Питером Сент-Джорджем (Peter St. George), финансировавшим исследования в области телекоммуникаций. Штат ZeoSync состоит из 30 постоянных сотрудников, но компания взаимодействует с Гарвардским университетом, Массачусетским технологическим институтом, Стэнфордским университетом, а также с учеными из Варшавы, Москвы и Пекина.

Опровержение теории 1948 года?
В научную команду, работающую с ZeoSync, входит один из известнейших американских математиков Стив Смейл (Steve Smale). Он заслуженный профессор Калифорнийского университета в Беркли и лауреат Филдсовской премии 1996 года — аналога Нобелевской премии в области математики. Однако получить его комментарии по поводу участия в данном проекте не удалось.

По словам основателя и главы компании ZeoSync Питера Сент-Джорджа, технология, разработанная его компанией, опровергает теорию цифровых коммуникаций, изложенную сотрудником AT&T д-ром Клодом Шенноном в его классическом труде «Теория информации». Шеннон (он умер в 1991 году) полагал, что любая информация — от человеческой речи до содержимого компьютерных дисков — ограничена емкостью канала, по которому она передается. Этот постулат составляет основу теории цифровых коммуникаций. «Мы взяли новую вершину теории передачи данных, — говорит Сент-Джордж. — Мы намерены обеспечить гигантскую емкость, характерную для аналоговых сигналов, при сохранении преимуществ устойчивости к помехам, характерных для цифровой связи».

Методы, предложенные ZeoSync, могут означать прорыв в области компрессии для десятков существующих технологий, включая MPEG и JPEG. Как правило, все эти алгоритмы основаны на исключении длинных цепочек повторяющихся битов данных и обеспечивают примерно десятикратное уплотнение. В заявлении ZeoSync говорится, что ее методы «позволят, когда они будут полностью разработаны, получить коэффициенты уплотнения, близкие к 100:1». В математических терминах компания называет свой метод «преобразованием характерных структур в форму энтропийных случайных последовательностей».

Компания подала заявку на патент, защищающий технологию, которую она называет Zero Space Tuner, а также сопутствующую технологию BinaryAccelerator, позволяющую кодировать данные в полностью восстанавливаемые уплотненные форматы. Начало коммерческого использования этих технологий планируется на 2003 год. Сент-Джордж сообщил Reuters, что его компания ведет переговоры с потенциальными стратегическими партнерами, в числе которых крупный поставщик компьютерных микросхем, применяемых в устройствах компрессии мультимедийных данных, а также ведущая голливудская студия звукозаписи. О соответствующих соглашениях будет объявлено в ближайшие месяцы. Компания утверждает также, что ее технологию можно использовать для совершенствования существующих методов компрессии, основанных на таких теориях, как фракталы (раздел геометрии, который занимается поисками порядка в хаотических процессах реального мира).

«Мы приглашаем других членов научного сообщества присоединиться к нашим усилиям по революционизации цифровой технологии, — сказал Сент-Джордж. — Впереди еще очень много интересной работы». До сих пор проект держался в секрете. 

 Предыдущие публикации:
2000-06-26   Музыка MP3 обретет CD-качество
2001-01-09   MPEG-4: стандарт интерактивного видео
2001-10-05   ИТ-гиганты продвигают стандарт MPEG-4 в веб
 В продолжение темы:
2002-01-22   Ирландский изобретатель: даровая энергия — это реальность
2002-02-10   План лицензирования MPEG-4 заставил отрасль содрогнуться
2002-02-23   VP5 вместо MPEG-4?
2002-03-25   Премьера новой технологии видеокомпрессии
2002-06-14   Вирус JPEG взял новую высоту
Обсуждение и комментарии
Alex - 00alexmail.ru
9 Jan 2002 4:53 PM
забавно, опровергают то, что используют (энтропию) ;-)
Больше похоже на расширение канала связи, а не на опровержение трудов Шенона ;-)
Ну да ладно, поживем увидим.
 

andry
9 Jan 2002 6:28 PM
>
>ZeoSync утверждает, что ее ученым удалось
>найти способ компрессии случайной информации
>— без потерь — более чем в 100 раз.
>
Чушь, чушь и в третий раз чушь!

Желающим напоминаю 1-во правило компрессора:

a) Положим, Вам говорят, что есть алгоритм, которые может сжимать _случайный_ данные
b) Ok, вот вам все возможноые файлы длинной неболее 1000 байт - сожмите их все, please...
c) Если Ваш алгоритм работает правильно, то каждый файл станет после сжатия хоть на 1 байт короче, ведь так?

d) А как быть с тем, что количество возможных файлов с длинной до 999, само собой, куда меньше, чем с длинной до 1000!?

Вывод: алгоритма, который сжимает что угодно (_случайные_ данные) нет (хотя сообщения о нем появляются с завидно периодичностью последние лет 30)
 

-
9 Jan 2002 8:40 PM
Это цифровые данные... А они их похоже преобразовывают в аналог обратно. А там чего угодно можно намешать
 

Zanuda
9 Jan 2002 9:02 PM
Редактору и переводчику: Cold Fusion - не холодное плавление, а холодный ядерный синтез
 

Волков
10 Jan 2002 12:30 AM
1. В оригинальном пресс-релизе (http://www.zeosync.com/flash/pressrelease.htm) употребляются термины "практически случайные данные" и "слабоупорядоченные информационные цепочки". Никто не говорит о компрессии абсолютно случайных данных.

2. Кажется они сначала сжимают данные существующим методом, в результате чего получают эти самые "практически случайные данные". После этого они (вот тут я не уверен что правильно понял) добавляют к ним случайную составляющую чтобы ихняя энтропия стала такой-то и такой-то а потом натравливают свой алгоритм.

3. Там еще есть такая фраза судя по которой, проблема с которой они столкнулись это слабая производительность современных компьютеров.
 

FizLi
10 Jan 2002 7:35 AM
Теоретически такая возможность уже давно "предсказана" (назовем это так...), а вот практически... Поживем - увидим. Но дело даже не в этом - сильно удивило (и это мягко говоря!) безапеляционное заявление о "закрытии" холодного ядерного синтеза - и это в то время, когда готовится если и не прорыв, то достаточно большой шаг вперед!(Для скептиков: под CFS подразумевается несколько не то, о чем "пугала" еллов-пресса %-))!).
 

Гоша
10 Jan 2002 8:38 AM
Предлагаю революционный метод сжатия аудио- файлов:
1. я имею все записи группы AC/DC со дня их основания в моём компрессоре (например, exe- модуле ).
2. я сжимаю имеющуюся запись группы AC/DC до ссылки в моём компрессоре(1 байт).
Сжатие в 1.000.000 раз. Ребята, платите мне миллионы! (шутка)
 

boris
10 Jan 2002 9:10 AM
вроде бы идет речь о сжатии без потерь, но тут же упоминаются jpeg/mpeg, которые сжимают с потерями. собственно, 10-кратное сжатие пока бывает только с потерями. так что и 100-кратное, наверняка, того же сорта. и, видимо, для очень мультимедийных приложений. таким образом, zip и rar пока ничто не угрожает :)
 

Константин
10 Jan 2002 10:34 AM
Кстати, Клод Элвуд Шеннон умер в 2001 году.
 

СтранниК - irc29rambler.ru
10 Jan 2002 11:05 AM
Интерестно а вечный двигатель еще сделали?
Наверно я рановато зашел.

 

6opucka - b.ignatovmotorola.com
10 Jan 2002 1:04 PM
А как насчет сжатия уже сжатых (ими же) файлов?
Кстати, в оригинале писали о том, что они "небольшие объемы данных могут быть подвергнуты сжатию..." - по моему, полная туфта - разбивай большой файл на мелкие - и жми!
Наверное, оччень инветоров привлечь хоца...
 

andry
10 Jan 2002 5:22 PM
2 -
>
>Это цифровые данные... А они их похоже
>преобразовывают в аналог обратно.
>А там чего угодно можно намешать
>
То есть названные 100 раз - это отношение вольт на выходе к битам на входе? Оригинальнос-с! ;-)))

А если серьезно - сжатие без потерь (!) - это математический алгоритм по отпределению!

2 Волков
>
>Никто не говорит о компрессии абсолютно случайных данных.
>
Спасибо - я действительно не посмотрел первоисточник, а перевод практически ничего не оставил от смысла. Хотя конечный вывод, IMHO, остается тем же - прикол для прессы бульварной, никак не технической

 

VB man
10 Jan 2002 8:05 PM
скорей всего речь и идёт о специальном вероятносном распредилении ("практически случайные данные"). Как известно - "Ничего просто так никуда непропадает - и неберётся" - или они и ентот закон хотят похерить?
 

antiloop - antiloopaport.ru
11 Jan 2002 11:25 AM
Попробуйте сжать слово "идиотизм" в 100 раз.
По идее на выходе должен получиться
пустой файл с n-колличеством пробелов.
Вот как замочил.:)
 

Commandor
11 Jan 2002 2:54 PM
Чушь это все, ребята. Не более, чем рекламная утка (видимо, прав 6opucka - на глупых инвесторов рассчитано). Это я вам как кандидат физ-мат наук говорю.
 

Обиженный
12 Jan 2002 2:05 AM
Что они нового нашли в своей теории?! Еще 20 лет назад военные использовали 100-кратную систему сжатия речевой информации на основе фонемного синтеза, т.е. по очень узкому частотному каналу (10..20 Гц) передавалась только огибающая речевого сигнала (т.е. - изменение интонации), а уже начинку (т.е.-голос)вставляли на принимающей стороне с помощью синтезаторов. Вот таким образом и используется сочетание цифровых методов с аналоговыми .
 

Глюпый
12 Jan 2002 2:18 AM
Пусть, например, похоронный марш на диске занимает 1.000.000 бит, тогда после сжатия его получим "1" - т.е. играть похоронку, а "0" - означит не играть, что => В теории всё сжать можно до бесконечности (даже Вселенную!!!).
 

Slashzone.Ru - forspamSlashzone.Ru
12 Jan 2002 4:14 PM
Стыдно, Zdnet, такие статьи преводить, да еще с потерей смысла..
 

Вячеслав - vippisem.net
14 Jan 2002 12:29 AM
Сжатие без потерь - все доказано Шенноном. Сжатие с потерями точности восстановления очевидно зависит от величины потерь ...
 

Alex N
15 Jan 2002 1:32 AM
Приятно осознать что русскоязычная публика все еще чего-то помнит из институтской программы !
(Интересно почитать комментарии от нынешних молодых. Ох боюсь что могут броситься вкладывать свои денешки в этот ...)
;o)
 

sen - sengmx.co.uk
15 Jan 2002 4:26 PM
я знаю способ сжатия информации в 102,4 раза без потерь. Ничего сложного.
 

Мичурин
16 Jan 2002 12:46 PM
"Попробуйте сжать слово "идиотизм" в 100 раз."

Кстати, можно. Наберите в блокноте его 100 раз, и сожмите зипом - сколько бит на слово наберётся? :)

Гоша: "я сжимаю имеющуюся запись группы AC/DC до ссылки в моём компрессоре(1 байт). Сжатие в 1.000.000 раз. Ребята, платите мне миллионы! (шутка) "

Не смешно, потому как правильно. Ведь все архиваторы, по сути, пытаются найти закономерности исключительно В САМИХ архивируемых данных, забывая об их многогранной связи с действительностью!

А вот если бы и компрессор, и декомпрессор, прежде чем за сжатие браться, перечитали бы все труды Ленина, и пересмотрели бы все популярные телепрограммы, к примеру, то весь "Материализм и эмпириокритицизм" в купе с "За стеклом" сжались бы до одного названия!
 

Zero
4 Feb 2002 1:22 PM
Это еще больший бред чем "вечный двигатель". Если против Первого начала термодинамики еще можно придумать какую-нибудь "божественную энергию" :)) то здесь-то все ясно... ПРОИЗВОЛЬНУЮ последовательность невозможно сжать без потерь даже на 1 бит!
 

Мичурин
6 Feb 2002 4:31 AM
Произвольную, конечно, нельзя. А вот видеоряд с Биллом Гейтсом можно и на словах более-менее точно описать. Потому, что собеседник тоже не вчера родился, и кое-что об этом мире знает. С чудовищной степенью сжатия, правда, и с такими же потерями.
 

Прохожий
18 Feb 2002 12:47 PM
Счастливчики видели даже зелёных человечков...
 

Прохожий
18 Feb 2002 1:47 PM
Хотя, с другой стороны, главное в мультимедийных сжималках-убрать информацию, которая человеку вообще-то безразлична. Уже афишируются алгоритмы сжатия изображений (похоже, гармонической аппроксимации)в 2..3 раза эффективнее JPEG при визуально идентичном качестве.
 

Ash - ashsoftistnet.ru
24 Feb 2002 8:59 AM
Маленький пример для показания эффективности существующих алгоритмов сжатия:

1. Cоздайте файл из 256 байт - 0, 1, 2, 3, ... 254, 255
2. Поробуйте сжать его RAR, ZIP, ARJ... Что получится? А ничего - размер архива лишь увеличится.
3. Задайте любому человеку вопрос - есть ли в данной информации избыточность? - ответ очевиден.

Вывод - существующие алгоритмы сжатия не учитывают такую вещь как закон изменения информации.

Мне скажут - слишком простой пример - слишком все очевидно. Хорошо, тогда так:

1. Берем генератор псевдослучайных чисел с известными начальными условиями и заданным законом формирования следующего числа.

2. Из этих чисел формируем файл размером с период такого генератора (а период может быть сколь угодно большим!)

3. ЛЮБОЙ архиватор сожмет этот файл в лучшем случае на 1-2%

4. НО - и любой человек не углядит в этом файле какой-либо закономерности изменения данных. А увидит лишь ПРОИЗВОЛЬНУЮ последовательность.

Теперь вопрос - а может можно и любую числовую последовательность разложить на множество таких генераторов (аналогия с преобразованием Фурье, или Wavelet?).

Если это удалось ZeoSync - честь им и хвала (хотя вычислительные мощности для этого нужны немалые). Но все-таки все это больше напоминает провокацию... Жаль, если так - идея имеет право на существование.

Кто захочет мне ответить - сообщите на e-mail - я здесь гость редкий.

 

KIM - kim_netyahoo.com
27 Feb 2002 4:16 PM
2 Ash: Первая серьезная мысль в обсуждении.

Думаю, что сжатие на основе поиска повторяющихся фрагментов - прошлый век. Считаю, что любая, самая неповторяемая и непредсказуемая последовательность информации содержит в себе некую функцию функций формирования, обладая огромными вычислительными ресурсами, которую можно вычислить и записать данную информацию в виде этой функции. Степень сжатия в таком случае равна отношению объема входной информации к сложности функции, которой можна эту информацию задать.

Очевидность этого можно осознать, если просто посмотреть на двоичный вид файла.

010101 - модуль полутора периодов синуса, например. -)

А ведь рассматривать можно позволить себе не только двоичный код, а и все возможные, анализировать можно как отдельные цифры, так и пары, триады,... и блоки для анализа можно брать как байтные, так и мегабайтные... А функции после анализа также можна подвергнуть сжатию и оптимизации...

То есть, чем большие вычислительные ресурсы мы можем позволить себе использовать, тем большей степени сжатия добъемся в результате. Следствием является также то, что больший файл сжимается лучше.

Осталось только запихнуть в архиватор максимально возможное число функций, слабо ограниченное число степеней свободы анализа (пусть даже код займет гигабайты) и, думаю, фраза "в 100 раз" - детский лепет по сравнению с тем, чего можна добиться (объединив, конечно, для написания архиватора математику максимального кол-ва университетов и индивидуалов -)).

LUCK!!!
 

 

← декабрь 2001 4  6  7  8  9  10  11  14  15 февраль 2002 →
Реклама!
 

 

Место для Вашей рекламы!