我有一项任务以某种方式压缩股票市场数据...数据位于一个文件中,其中每天的股票价值在一行中给出,依此类推...所以这是一个非常大的文件。

例如,
123.45
234.75
345.678
889.56
.....

现在的问题是如何使用霍夫曼或算术编码或 LZ 编码等标准算法来压缩数据(又名减少冗余)...哪种编码最适合此类数据?...

我注意到,如果我获取第一个数据,然后考虑每个连续数据之间的差异,差异值中会有很多重复......这让我想知道是否首先获取这些差异,找到它们的频率,从而找到概率,然后使用霍夫曼编码是一种方法吗??...

我说得对吗?...任何人都可以给我一些建议。

有帮助吗?

解决方案

我认为你的问题比仅仅减去股票价格更复杂。您还需要存储日期(除非您具有可从文件名推断的一致时间跨度)。

但数据量不是很大。即使您有300个库存的过去30年每年每天每秒都有数据,您仍然可以将所有这些数据存储在更高端的家用计算机(例如,MAC Pro)中,因为这相当于5Tb UNCOMPRESSED

我写了一个快速而又脏的脚本,它每天都会追踪雅虎的IBM股票,然后“正常”存储它。 (仅调整后的收盘价)并使用“差价法”。你提到,然后用gzip压缩它们。你确实获得了节省:16K对10K。问题是我没有存储日期,我不知道什么价值对应于什么日期,当然你必须包括这个。

祝你好运。

import urllib as ul
import binascii as ba

# root URL
url = 'http://ichart.finance.yahoo.com/table.csv?%s'

# dictionary of options appended to URL (encoded)
opt = ul.urlencode({
    's':'IBM',       # Stock symbol or ticker; IBM
    'a':'00',        # Month January; index starts at zero
    'b':'2',         # Day 2
    'c':'1978',      # Year 2009
    'd':'10',        # Month November; index starts at zero
    'e':'30',        # Day 30
    'f':'2009',      # Year 2009
    'g':'d',         # Get daily prices
    'ignore':'.csv', # CSV format
    })

# get the data
data = ul.urlopen(url % opt)

# get only the "Adjusted Close" (last column of every row; the 7th)

close = []

for entry in data:
    close.append(entry.strip().split(',')[6])

# get rid of the first element (it is only the string 'Adj Close') 
close.pop(0)

# write to file
f1 = open('raw.dat','w')
for element in close:
    f1.write(element+'\n')
f1.close()

# simple function to convert string to scaled number
def scale(x):
    return int(float(x)*100)

# apply the previously defined function to the list
close = map(scale,close)

# it is important to store the first element (it is the base scale)
base = close[0]

# normalize all data (difference from nom)
close = [ close[k+1] - close[k] for k in range(len(close)-1)]

# introduce the base to the data
close.insert(0,base)



# define a simple function to convert the list to a single string
def l2str(list):
    out = ''
    for item in list:
        if item>=0:
            out += '+'+str(item)
        else:
            out += str(item)
    return out

# convert the list to a string
close = l2str(close)

f2 = open('comp.dat','w')
f2.write(close)
f2.close()

现在比较“原始数据”和“原始数据”。 (raw.dat)与“压缩格式”相对应。你建议(comp.dat)

:sandbox jarrieta$ ls -lh
total 152
-rw-r--r--  1 jarrieta  staff    23K Nov 30 09:28 comp.dat
-rw-r--r--  1 jarrieta  staff    47K Nov 30 09:28 raw.dat
-rw-r--r--  1 jarrieta  staff   1.7K Nov 30 09:13 stock.py
:sandbox jarrieta$ gzip --best *.dat
:sandbox jarrieta$ ls -lh
total 64
-rw-r--r--  1 jarrieta  staff    10K Nov 30 09:28 comp.dat.gz
-rw-r--r--  1 jarrieta  staff    16K Nov 30 09:28 raw.dat.gz
-rw-r--r--  1 jarrieta  staff   1.7K Nov 30 09:13 stock.py

其他提示

如今,许多压缩工具都使用这些技术的组合来为各种数据提供良好的比率。可能值得开始使用相当一般和现代的东西,如 bzip2 ,它使用霍夫曼编码结合各种篡改数据的技巧,带来各种冗余(页面包含进一步向下的各种实现的链接)。

游程编码可能合适吗?一探究竟 这里. 。为了给出一个极端简单的例子来说明它是如何工作的,这里有一行 ASCII 代码的数据......30 字节长

HHHHHHHHEEEEEEELLLLLLLLOOOOOO

将 RLE 应用于它,您将得到 8 个字节:

9H7E8L6O
  • 九个H
  • 七个E
  • 八个L
  • 六个O

结果减少了约 27%(示例行的压缩比为 8/30)

你怎么认为?

希望这对汤姆有帮助,汤姆。

计算连续数据的差异,然后使用运行长度编码(RLE)

您还需要将数据转换为整数,然后计算差异。

最好的是自适应差分压缩(我忘记了正确的名称)。你不仅可以每天获取差异,还可以计算出一个预测变量并实际区分它。通常优于正常的线性预测变量。

如果你想得到你能做的就是交叉适应性,其中股票市场整体上有自己的趋势,用拐杖来挑选更好的压缩预测因子。

我建议你将主文件分解为分段的阻止格式,然后分别压缩各个段;这应该导致最大化优化压缩。 在解压缩方面,您必须分别解压缩这些单独的段,然后重建原始文本文件。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top