Обработка исключений C # продолжается при ошибке
Вопрос
У меня есть базовое консольное приложение на C #, которое построчно считывает текстовый файл (формат CSV) и помещает данные в хэш-таблицу.Первый элемент CSV в строке - это ключ (id num), а остальная часть строки - значение.Однако я обнаружил, что в моем файле импорта есть несколько дубликатов ключей, которых в нем не должно быть.Когда я пытаюсь импортировать файл, приложение выдает ошибку, потому что у вас не может быть дубликатов ключей в хэш-таблице.Однако я хочу, чтобы моя программа могла обработать эту ошибку.Когда я сталкиваюсь с дубликатом ключа, я хотел бы поместить этот ключ в arraylist и продолжить импорт остальных данных в хэш-таблицу.Как я могу сделать это на C#
Вот мой код:
частный файл импорта статической хэш-таблицы(Hashtable MyHashTable, String myFileName) {
StreamReader sr = new StreamReader(myFileName);
CSVReader csvReader = new CSVReader();
ArrayList tempArray = new ArrayList();
int count = 0;
while (!sr.EndOfStream)
{
String temp = sr.ReadLine();
if (temp.StartsWith(" "))
{
ServMissing.Add(temp);
}
else
{
tempArray = csvReader.CSVParser(temp);
Boolean first = true;
String key = "";
String value = "";
foreach (String x in tempArray)
{
if (first)
{
key = x;
first = false;
}
else
{
value += x + ",";
}
}
myHashtable.Add(key, value);
}
count++;
}
Console.WriteLine("Import Count: " + count);
return myHashtable;
}
Решение
if (myHashtable.ContainsKey(key))
duplicates.Add(key);
else
myHashtable.Add(key, value);
Другие советы
Лучшим решением является вызов containsKey, чтобы проверить, существует ли ключ, прежде чем добавлять его в хэш-таблицу.Создание исключения при такого рода ошибках снижает производительность и не улучшает работу программы.
containsKey имеет постоянные накладные расходы O (1) для каждого элемента, в то время как перехват исключения приводит к снижению производительности ТОЛЬКО для повторяющихся элементов.
В большинстве ситуаций я бы сказал проверить наличие ключа, но в данном случае лучше перехватить исключение.
Вот решение, которое позволяет избежать множественных попаданий во вторичный список с небольшими накладными расходами на все вставки:
Dictionary<T, List<K>> dict = new Dictionary<T, List<K>>();
//Insert item
if (!dict.ContainsKey(key))
dict[key] = new List<string>();
dict[key].Add(value);
Вы можете обернуть словарь в тип, который скрывает это, или поместить его в метод или даже метод расширения в dictionary.
Если у вас есть более 4 (например) значений CSV, возможно, стоит установить значение переменную также можно использовать в StringBuilder, поскольку конкатенация строк является медленной функцией.
Хм, 1,7 миллиона строк?Я не решаюсь предлагать это для такого рода нагрузки.
Вот один из способов сделать это с помощью LINQ.
CSVReader csvReader = new CSVReader();
List<string> source = new List<string>();
using(StreamReader sr = new StreamReader(myFileName))
{
while (!sr.EndOfStream)
{
source.Add(sr.ReadLine());
}
}
List<string> ServMissing =
source
.Where(s => s.StartsWith(" ")
.ToList();
//--------------------------------------------------
List<IGrouping<string, string>> groupedSource =
(
from s in source
where !s.StartsWith(" ")
let parsed = csvReader.CSVParser(s)
where parsed.Any()
let first = parsed.First()
let rest = String.Join( "," , parsed.Skip(1).ToArray())
select new {first, rest}
)
.GroupBy(x => x.first, x => x.rest) //GroupBy(keySelector, elementSelector)
.ToList()
//--------------------------------------------------
List<string> myExtras = new List<string>();
foreach(IGrouping<string, string> g in groupedSource)
{
myHashTable.Add(g.Key, g.First());
if (g.Skip(1).Any())
{
myExtras.Add(g.Key);
}
}
Спасибо вам всем.В итоге я использовал метод containsKey().Это занимает, может быть, на 30 секунд больше времени, что вполне подходит для моих целей.Я загружаю около 1,7 миллиона строк, и программе требуется в общей сложности около 7 минут, чтобы загрузить два файла, сравнить их и записать несколько файлов.На выполнение сравнения и запись файлов уходит всего около 2 секунд.