Вопрос

В настоящее время я пытаюсь сделать хороший ИИ для Отелло, и сделал это, используя алгоритм минимакса. Однако, когда я пытался сделать более глубокий поиск, используя альфа-бета-обрезку, казалось, что алгоритм играл ужасно. Я проверил это с другими источниками, такими как Wiki и Berkely.edu, и я думаю, что я реализовал это правильно, но я все еще не могу найти проблему.

def alphabeta(board, player, a, b, lev):
        h = heur(board, player)
        if lev == 0:
                return h, None
        poss = get_legal_moves(board, player)
        if len(poss) == 0:
                return h, None
        move = 0
        for x in poss:
                cpboard = board[:]
                cpboard[x] = player
                bracket(cpboard, player, x)
                a1, q = alphabeta(cpboard, opponent_color(player), a, b, lev-1)
                if player is me:
                        if a1 > a:
                                a, move = a1, x
                else:
                        if a1 < b:
                                b, move = a1, x
                if b <= a:
                        break
        if player is me:
                return a, move
        else:
                return b, move
Это было полезно?

Решение

Ваш альфа-бета-код, вероятно, неверен. Имейте в виду, что происходит, когда игрок «пройдет поворот» (т.е. не имеет доступных ходов), у меня была сложная ошибка в моем коде, из -за этого.

Вы называли рекурсию с переключенными значениями альфа и бета? Моя работает так (код Java):

private float minimax(OthelloBoard board, OthelloMove best, float alpha, float beta, int depth)
{
    float bestResult = -Float.MAX_VALUE;
    OthelloMove garbage = new OthelloMove();

    int state = board.getState();
    int currentPlayer = board.getCurrentPlayer();

    if (state == OthelloBoard.STATE_DRAW)
        return 0.0f;
    if ((state == OthelloBoard.STATE_BLACK_WINS) && (currentPlayer == OthelloBoard.BLACK))                    
        return INFINITY;        
    if ((state == OthelloBoard.STATE_WHITE_WINS) && (currentPlayer == OthelloBoard.WHITE))
        return INFINITY;
    if ((state == OthelloBoard.STATE_BLACK_WINS) && (currentPlayer == OthelloBoard.WHITE))
        return -INFINITY;
    if ((state == OthelloBoard.STATE_WHITE_WINS) && (currentPlayer == OthelloBoard.BLACK))
        return -INFINITY;

    if (depth == maxDepth)
        return OthelloHeuristics.eval(currentPlayer, board);

    ArrayList<OthelloMove> moves = board.getAllMoves(currentPlayer);

    for (OthelloMove mv : moves)
    {            
        board.makeMove(mv);
        alpha = - minimax(board, garbage, -beta, -alpha, depth + 1);
        board.undoMove(mv);

        if (beta <= alpha)
            return alpha;
        if (alpha > bestResult)
        {                
            best.setFlipSquares(mv.getFlipSquares());
            best.setIdx(mv.getIdx());        
            best.setPlayer(mv.getPlayer());
            bestResult = alpha;
        }
    }

     return bestResult;
}

Звонок похож на:

 OthelloMove bestFound = new OthelloMove();
 int maxDepth = 8;
 minimax(board, bestFound, -Float.MAX_VALUE, Float.MAX_VALUE, maxDepth);
//Wait for Thread to finish
 board.makeMove(bestFound);

РЕДАКТИРОВАТЬ: В случае, если у игрока нет доступных ходов, Getallmoves () верните «манекен -ход», который вообще не меняет доску, просто передайте поворот.

Надеюсь, поможет!

Другие советы

Ваша реализация Alphabeta выглядит для меня. Поскольку Minimax и Alphabeta дают те же результаты при правильном внедрении, вы сможете использовать свой старый код Minimax в качестве проверки на Alphabeta, по крайней мере, для скромных глубин поиска. Если их результаты различаются при поиске одного и того же дерева игры, то вы знаете, что сделали что -то не так.

Но, скорее всего, плохая игра является результатом чего -то в вашей функции оценки "HEUR".

Лицензировано под: CC-BY-SA с атрибуция
Не связан с StackOverflow
scroll top