Вопрос

Я работаю над научным вычислительным кодом (написанным на C ++), и в дополнение к выполнению модульных тестов для небольших компонентов, я хотел бы провести регрессионное тестирование некоторых числовых результатов путем сравнения с "заведомо хорошим" ответом из предыдущих версий.Есть несколько функций, которые я бы хотел:

  • Позволяет сравнивать числа с заданным допуском (как для ошибки округления, так и для более слабых ожиданий)
  • Способность различать целые числа, удвоения и т.д. И при необходимости игнорировать текст
  • Хорошо отформатированный вывод, позволяющий определить, что пошло не так и где:в многоколоночной таблице данных отображается только запись столбца, которая отличается
  • Возврат EXIT_SUCCESS или EXIT_FAILURE в зависимости от того, совпадают ли файлы

Есть ли какие-нибудь хорошие скрипты или приложения, которые делают это, или мне придется создавать свои собственные на Python для чтения и сравнения выходных файлов?Конечно, я не первый человек с подобными требованиями.

[Следующее не является строго релевантным, но может повлиять на решение о том, что делать.Я использую CMake и его встроенную функциональность CTest для запуска модульных тестов, использующих Google Test framework.Я полагаю, что вам не составит труда добавить несколько add_custom_command заявления в моем CMakeLists.txt чтобы вызвать любое программное обеспечение для регрессии, которое мне нужно.]

Это было полезно?

Решение 3

В итоге я написал скрипт на Python, чтобы делать более или менее то, что я хотел.

#!/usr/bin/env python

import sys
import re
from optparse import OptionParser
from math import fabs

splitPattern = re.compile(r',|\s+|;')

class FailObject(object):
    def __init__(self, options):
        self.options = options
        self.failure = False

    def fail(self, brief, full = ""):
        print ">>>> ", brief
        if options.verbose and full != "":
            print "     ", full
        self.failure = True


    def exit(self):
        if (self.failure):
            print "FAILURE"
            sys.exit(1)
        else:
            print "SUCCESS"
            sys.exit(0)

def numSplit(line):
    list = splitPattern.split(line)
    if list[-1] == "":
        del list[-1]

    numList = [float(a) for a in list]
    return numList

def softEquiv(ref, target, tolerance):
    if (fabs(target - ref) <= fabs(ref) * tolerance):
        return True

    #if the reference number is zero, allow tolerance
    if (ref == 0.0):
        return (fabs(target) <= tolerance)

    #if reference is non-zero and it failed the first test
    return False

def compareStrings(f, options, expLine, actLine, lineNum):
    ### check that they're a bunch of numbers
    try:
        exp = numSplit(expLine)
        act = numSplit(actLine)
    except ValueError, e:
#        print "It looks like line %d is made of strings (exp=%s, act=%s)." \
#                % (lineNum, expLine, actLine)
        if (expLine != actLine and options.checkText):
            f.fail( "Text did not match in line %d" % lineNum )
        return

    ### check the ranges
    if len(exp) != len(act):
        f.fail( "Wrong number of columns in line %d" % lineNum )
        return

    ### soft equiv on each value
    for col in range(0, len(exp)):
        expVal = exp[col]
        actVal = act[col]
        if not softEquiv(expVal, actVal, options.tol):
            f.fail( "Non-equivalence in line %d, column %d" 
                    % (lineNum, col) )
    return

def run(expectedFileName, actualFileName, options):
    # message reporter
    f = FailObject(options)

    expected  = open(expectedFileName)
    actual    = open(actualFileName)
    lineNum   = 0

    while True:
        lineNum += 1
        expLine = expected.readline().rstrip()
        actLine = actual.readline().rstrip()

        ## check that the files haven't ended,
        #  or that they ended at the same time
        if expLine == "":
            if actLine != "":
                f.fail("Tested file ended too late.")
            break
        if actLine == "":
            f.fail("Tested file ended too early.")
            break

        compareStrings(f, options, expLine, actLine, lineNum)

        #print "%3d: %s|%s" % (lineNum, expLine[0:10], actLine[0:10])

    f.exit()

################################################################################
if __name__ == '__main__':
    parser = OptionParser(usage = "%prog [options] ExpectedFile NewFile")
    parser.add_option("-q", "--quiet",
                      action="store_false", dest="verbose", default=True,
                      help="Don't print status messages to stdout")

    parser.add_option("--check-text",
                      action="store_true", dest="checkText", default=False,
                      help="Verify that lines of text match exactly")

    parser.add_option("-t", "--tolerance",
                      action="store", type="float", dest="tol", default=1.e-15,
                      help="Relative error when comparing doubles")

    (options, args) = parser.parse_args()

    if len(args) != 2:
        print "Usage: numdiff.py EXPECTED ACTUAL"
        sys.exit(1)

    run(args[0], args[1], options)

Другие советы

Вы должны пойти на ПьЮнит, который теперь является частью стандартной библиотеки под названием unittest.Он поддерживает все, о чем вы просили.Проверка допуска, например, выполняется с помощью assertAlmostEqual().

В ndiff утилита может быть близка к тому, что вы ищете:это похоже на diff, но оно будет сравнивать текстовые файлы чисел с желаемым допуском.

Я знаю, что довольно опаздываю на вечеринку, но несколько месяцев назад я написал nrtest - тест утилита в попытке упростить этот рабочий процесс.Похоже, это могло бы помочь и вам тоже.

Вот краткий обзор.Каждый тест определяется его входными файлами и ожидаемыми выходными файлами.После выполнения выходные файлы сохраняются в переносимом каталоге тестов.Затем на втором шаге этот эталон сравнивается с эталонным эталоном.Недавнее обновление включило пользовательские расширения, так что вы можете определять функции сравнения для своих пользовательских данных.

Я надеюсь, что это поможет.

Лицензировано под: CC-BY-SA с атрибуция
Не связан с StackOverflow
scroll top