source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3997

Last change on this file since 3997 was 3997, checked in by matszpk, 15 months ago

CLRadeonExtender: AsmRegAlloc?: First testcase for AsmRegAlloc::applySSAReplaces routine. Add new constructor to AsmRegAllocator? (to simplify testing).
Add new constructor to VectoSet?.

File size: 55.7 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35#include "AsmRegAlloc.h"
36
37using namespace CLRX;
38
39#if ASMREGALLOC_DEBUGDUMP
40std::ostream& operator<<(std::ostream& os, const CLRX::BlockIndex& v)
41{
42    if (v.pass==0)
43        return os << v.index;
44    else
45        return os << v.index << "#" << v.pass;
46}
47#endif
48
49ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
50            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
51            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
52            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
53{ }
54
55ISAUsageHandler::~ISAUsageHandler()
56{ }
57
58void ISAUsageHandler::rewind()
59{
60    readOffset = instrStructPos = 0;
61    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
62    useRegMode = false;
63    pushedArgs = 0;
64    skipBytesInInstrStruct();
65}
66
67void ISAUsageHandler::skipBytesInInstrStruct()
68{
69    // do not add instruction size if usereg (usereg immediately before instr regusages)
70    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
71        readOffset += defaultInstrSize;
72    argPos = 0;
73    for (;instrStructPos < instrStruct.size() &&
74        instrStruct[instrStructPos] > 0x80; instrStructPos++)
75        readOffset += (instrStruct[instrStructPos] & 0x7f);
76    isNext = (instrStructPos < instrStruct.size());
77}
78
79void ISAUsageHandler::putSpace(size_t offset)
80{
81    if (lastOffset != offset)
82    {
83        flush(); // flush before new instruction
84        // useReg immediately before instruction regusages
85        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
86        if (lastOffset > offset)
87            throw AsmException("Offset before previous instruction");
88        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
89            throw AsmException("Offset between previous instruction");
90        size_t toSkip = !instrStruct.empty() ? 
91                offset - lastOffset - defaultInstrSize : offset;
92        while (toSkip > 0)
93        {
94            size_t skipped = std::min(toSkip, size_t(0x7f));
95            instrStruct.push_back(skipped | 0x80);
96            toSkip -= skipped;
97        }
98        lastOffset = offset;
99        argFlags = 0;
100        pushedArgs = 0;
101    } 
102}
103
104void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
105{
106    if (lastOffset == rvu.offset && useRegMode)
107        flush(); // only flush if useRegMode and no change in offset
108    else // otherwise
109        putSpace(rvu.offset);
110    useRegMode = false;
111    if (rvu.regVar != nullptr)
112    {
113        argFlags |= (1U<<pushedArgs);
114        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
115            rvu.rwFlags, rvu.align });
116    }
117    else // reg usages
118        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
119                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
120    pushedArgs++;
121}
122
123void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
124{
125    if (lastOffset == rvu.offset && !useRegMode)
126        flush(); // only flush if useRegMode and no change in offset
127    else // otherwise
128        putSpace(rvu.offset);
129    useRegMode = true;
130    if (pushedArgs == 0 || pushedArgs == 256)
131    {
132        argFlags = 0;
133        pushedArgs = 0;
134        instrStruct.push_back(0x80); // sign of regvarusage from usereg
135        instrStruct.push_back(0);
136    }
137    if (rvu.regVar != nullptr)
138    {
139        argFlags |= (1U<<(pushedArgs & 7));
140        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
141            rvu.rwFlags, rvu.align });
142    }
143    else // reg usages
144        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
145    pushedArgs++;
146    if ((pushedArgs & 7) == 0) // just flush per 8 bit
147    {
148        instrStruct.push_back(argFlags);
149        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
150        argFlags = 0;
151    }
152}
153
154void ISAUsageHandler::flush()
155{
156    if (pushedArgs != 0)
157    {
158        if (!useRegMode)
159        {
160            // normal regvarusages
161            instrStruct.push_back(argFlags);
162            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
163                regVarUsages.back().rwFlags |= 0x80;
164            else // reg usages
165                regUsages.back().rwFlags |= 0x80;
166        }
167        else
168        {
169            // use reg regvarusages
170            if ((pushedArgs & 7) != 0) //if only not pushed args remains
171                instrStruct.push_back(argFlags);
172            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
173        }
174    }
175}
176
177AsmRegVarUsage ISAUsageHandler::nextUsage()
178{
179    if (!isNext)
180        throw AsmException("No reg usage in this code");
181    AsmRegVarUsage rvu;
182    // get regvarusage
183    bool lastRegUsage = false;
184    rvu.offset = readOffset;
185    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
186    {
187        // useRegMode (begin fetching useregs)
188        useRegMode = true;
189        argPos = 0;
190        instrStructPos++;
191        // pushedArgs - numer of useregs, 0 - 256 useregs
192        pushedArgs = instrStruct[instrStructPos++];
193        argFlags = instrStruct[instrStructPos];
194    }
195    rvu.useRegMode = useRegMode; // no ArgPos
196   
197    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
198    {
199        // regvar usage
200        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
201        rvu.regVar = inRVU.regVar;
202        rvu.rstart = inRVU.rstart;
203        rvu.rend = inRVU.rend;
204        rvu.regField = inRVU.regField;
205        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
206        rvu.align = inRVU.align;
207        if (!useRegMode)
208            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
209    }
210    else if (!useRegMode)
211    {
212        // simple reg usage
213        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
214        rvu.regVar = nullptr;
215        const std::pair<uint16_t, uint16_t> regPair =
216                    getRegPair(inRU.regField, inRU.rwFlags);
217        rvu.rstart = regPair.first;
218        rvu.rend = regPair.second;
219        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
220        rvu.regField = inRU.regField;
221        rvu.align = 0;
222        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
223    }
224    else
225    {
226        // use reg (simple reg usage, second structure)
227        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
228        rvu.regVar = nullptr;
229        rvu.rstart = inRU.rstart;
230        rvu.rend = inRU.rend;
231        rvu.rwFlags = inRU.rwFlags;
232        rvu.regField = ASMFIELD_NONE;
233        rvu.align = 0;
234    }
235    argPos++;
236    if (useRegMode)
237    {
238        // if inside useregs
239        if (argPos == (pushedArgs&0xff))
240        {
241            instrStructPos++; // end
242            skipBytesInInstrStruct();
243            useRegMode = false;
244        }
245        else if ((argPos & 7) == 0) // fetch new flag
246        {
247            instrStructPos++;
248            argFlags = instrStruct[instrStructPos];
249        }
250    }
251    // after instr
252    if (lastRegUsage)
253    {
254        instrStructPos++;
255        skipBytesInInstrStruct();
256    }
257    return rvu;
258}
259
260AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
261{ }
262
263AsmRegAllocator::AsmRegAllocator(Assembler& _assembler,
264        const std::vector<CodeBlock>& _codeBlocks, const SSAReplacesMap& _ssaReplacesMap)
265        : assembler(_assembler), codeBlocks(_codeBlocks), ssaReplacesMap(_ssaReplacesMap)
266{ }
267
268static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
269                  const AsmRegAllocator::CodeBlock& c2)
270{ return c1.start < c2.start; }
271
272static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
273                  const AsmRegAllocator::CodeBlock& c2)
274{ return c1.end < c2.end; }
275
276void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
277             size_t codeSize, const cxbyte* code)
278{
279    ISAAssembler* isaAsm = assembler.isaAssembler;
280    if (codeSize == 0)
281        return;
282    std::vector<size_t> splits;
283    std::vector<size_t> codeStarts;
284    std::vector<size_t> codeEnds;
285    codeStarts.push_back(0);
286    codeEnds.push_back(codeSize);
287    for (const AsmCodeFlowEntry& entry: codeFlow)
288    {
289        size_t instrAfter = 0;
290        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
291            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
292            instrAfter = entry.offset + isaAsm->getInstructionSize(
293                        codeSize - entry.offset, code + entry.offset);
294       
295        switch(entry.type)
296        {
297            case AsmCodeFlowType::START:
298                codeStarts.push_back(entry.offset);
299                break;
300            case AsmCodeFlowType::END:
301                codeEnds.push_back(entry.offset);
302                break;
303            case AsmCodeFlowType::JUMP:
304                splits.push_back(entry.target);
305                codeEnds.push_back(instrAfter);
306                break;
307            case AsmCodeFlowType::CJUMP:
308                splits.push_back(entry.target);
309                splits.push_back(instrAfter);
310                break;
311            case AsmCodeFlowType::CALL:
312                splits.push_back(entry.target);
313                splits.push_back(instrAfter);
314                break;
315            case AsmCodeFlowType::RETURN:
316                codeEnds.push_back(instrAfter);
317                break;
318            default:
319                break;
320        }
321    }
322    std::sort(splits.begin(), splits.end());
323    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
324    std::sort(codeEnds.begin(), codeEnds.end());
325    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
326    // remove codeStarts between codeStart and codeEnd
327    size_t i = 0;
328    size_t ii = 0;
329    size_t ei = 0; // codeEnd i
330    while (i < codeStarts.size())
331    {
332        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
333        if (ei < codeEnds.size())
334            ei++;
335        codeStarts[ii++] = codeStarts[i];
336        // skip codeStart to end
337        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
338    }
339    codeStarts.resize(ii);
340    // add next codeStarts
341    auto splitIt = splits.begin();
342    for (size_t codeEnd: codeEnds)
343    {
344        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
345        if (it != splits.end())
346        {
347            codeStarts.push_back(*it);
348            splitIt = it;
349        }
350        else // if end
351            break;
352    }
353   
354    std::sort(codeStarts.begin(), codeStarts.end());
355    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
356                codeStarts.begin());
357    // divide to blocks
358    splitIt = splits.begin();
359    for (size_t codeStart: codeStarts)
360    {
361        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
362        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
363       
364        if (splitIt != splits.end() && *splitIt==codeStart)
365            ++splitIt; // skip split in codeStart
366       
367        for (size_t start = codeStart; start < codeEnd; )
368        {
369            size_t end = codeEnd;
370            if (splitIt != splits.end())
371            {
372                end = std::min(end, *splitIt);
373                ++splitIt;
374            }
375            codeBlocks.push_back({ start, end, { }, false, false, false });
376            start = end;
377        }
378    }
379    // force empty block at end if some jumps goes to its
380    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
381        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
382        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
383                             false, false, false });
384   
385    // construct flow-graph
386    for (const AsmCodeFlowEntry& entry: codeFlow)
387        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
388            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
389        {
390            std::vector<CodeBlock>::iterator it;
391            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
392                        codeSize - entry.offset, code + entry.offset);
393           
394            if (entry.type != AsmCodeFlowType::RETURN)
395                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
396                        CodeBlock{ entry.target }, codeBlockStartLess);
397            else // return
398            {
399                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
400                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
401                // if block have return
402                if (it != codeBlocks.end())
403                    it->haveEnd = it->haveReturn = true;
404                continue;
405            }
406           
407            if (it == codeBlocks.end())
408                continue; // error!
409            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
410                    CodeBlock{ instrAfter }, codeBlockStartLess);
411            auto curIt = it2;
412            --curIt;
413           
414            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
415                        entry.type == AsmCodeFlowType::CALL });
416            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
417            if (entry.type == AsmCodeFlowType::CJUMP ||
418                 entry.type == AsmCodeFlowType::CALL)
419            {
420                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
421                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
422                    // add next next block (only for cond jump)
423                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
424            }
425            else if (entry.type == AsmCodeFlowType::JUMP)
426                curIt->haveEnd = true; // set end
427        }
428    // force haveEnd for block with cf_end
429    for (const AsmCodeFlowEntry& entry: codeFlow)
430        if (entry.type == AsmCodeFlowType::END)
431        {
432            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
433                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
434            if (it != codeBlocks.end())
435                it->haveEnd = true;
436        }
437   
438    if (!codeBlocks.empty()) // always set haveEnd to last block
439        codeBlocks.back().haveEnd = true;
440   
441    // reduce nexts
442    for (CodeBlock& block: codeBlocks)
443    {
444        // first non-call nexts, for correct resolving SSA conflicts
445        std::sort(block.nexts.begin(), block.nexts.end(),
446                  [](const NextBlock& n1, const NextBlock& n2)
447                  { return int(n1.isCall)<int(n2.isCall) ||
448                      (n1.isCall == n2.isCall && n1.block < n2.block); });
449        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
450                  [](const NextBlock& n1, const NextBlock& n2)
451                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
452        block.nexts.resize(it - block.nexts.begin());
453    }
454}
455
456
457void AsmRegAllocator::applySSAReplaces()
458{
459    /* prepare SSA id replaces */
460    struct MinSSAGraphNode
461    {
462        size_t minSSAId;
463        bool visited;
464        std::unordered_set<size_t> nexts;
465        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
466    };
467    struct MinSSAGraphStackEntry
468    {
469        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
470        std::unordered_set<size_t>::const_iterator nextIt;
471        size_t minSSAId;
472       
473        MinSSAGraphStackEntry(
474                std::unordered_map<size_t, MinSSAGraphNode>::iterator _nodeIt,
475                std::unordered_set<size_t>::const_iterator _nextIt,
476                size_t _minSSAId = SIZE_MAX)
477                : nodeIt(_nodeIt), nextIt(_nextIt), minSSAId(_minSSAId)
478        { }
479    };
480   
481    for (auto& entry: ssaReplacesMap)
482    {
483        VectorSet<SSAReplace>& replaces = entry.second;
484        std::sort(replaces.begin(), replaces.end());
485        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
486        VectorSet<SSAReplace> newReplaces;
487       
488        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
489       
490        auto it = replaces.begin();
491        while (it != replaces.end())
492        {
493            auto itEnd = std::upper_bound(it, replaces.end(),
494                            std::make_pair(it->first, size_t(SIZE_MAX)));
495            {
496                MinSSAGraphNode& node = ssaGraphNodes[it->first];
497                node.minSSAId = std::min(node.minSSAId, it->second);
498                for (auto it2 = it; it2 != itEnd; ++it2)
499                    node.nexts.insert(it->second);
500            }
501            it = itEnd;
502        }
503        // propagate min value
504        std::stack<MinSSAGraphStackEntry> minSSAStack;
505        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
506                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
507        {
508            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
509            // traverse with minimalize SSA id
510            while (!minSSAStack.empty())
511            {
512                MinSSAGraphStackEntry& entry = minSSAStack.top();
513                MinSSAGraphNode& node = entry.nodeIt->second;
514                bool toPop = false;
515                if (entry.nextIt == node.nexts.begin())
516                {
517                    if (!node.visited)
518                        node.visited = true;
519                    else
520                        toPop = true;
521                }
522                if (!toPop && entry.nextIt != node.nexts.end())
523                {
524                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
525                    if (nodeIt != ssaGraphNodes.end())
526                    {
527                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
528                                nodeIt->second.minSSAId });
529                    }
530                    ++entry.nextIt;
531                }
532                else
533                {
534                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
535                    minSSAStack.pop();
536                    if (!minSSAStack.empty())
537                    {
538                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
539                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
540                    }
541                }
542            }
543            // skip visited nodes
544            for(; ssaGraphNodeIt != ssaGraphNodes.end(); ++ssaGraphNodeIt)
545                if (!ssaGraphNodeIt->second.visited)
546                    break;
547        }
548       
549        for (const auto& entry: ssaGraphNodes)
550            newReplaces.push_back({ entry.first, entry.second.minSSAId });
551       
552        std::sort(newReplaces.begin(), newReplaces.end());
553        entry.second = newReplaces;
554    }
555   
556    /* apply SSA id replaces */
557    for (CodeBlock& cblock: codeBlocks)
558        for (auto& ssaEntry: cblock.ssaInfoMap)
559        {
560            auto it = ssaReplacesMap.find(ssaEntry.first);
561            if (it == ssaReplacesMap.end())
562                continue;
563            SSAInfo& sinfo = ssaEntry.second;
564            VectorSet<SSAReplace>& replaces = it->second;
565            if (sinfo.readBeforeWrite)
566            {
567                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
568                                 ssaEntry.second.ssaIdBefore);
569                if (rit != replaces.end())
570                    sinfo.ssaIdBefore = rit->second; // replace
571            }
572            if (sinfo.ssaIdFirst != SIZE_MAX)
573            {
574                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
575                                 ssaEntry.second.ssaIdFirst);
576                if (rit != replaces.end())
577                    sinfo.ssaIdFirst = rit->second; // replace
578            }
579            if (sinfo.ssaIdLast != SIZE_MAX)
580            {
581                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
582                                 ssaEntry.second.ssaIdLast);
583                if (rit != replaces.end())
584                    sinfo.ssaIdLast = rit->second; // replace
585            }
586        }
587}
588
589struct Liveness
590{
591    std::map<size_t, size_t> l;
592   
593    Liveness() { }
594   
595    void clear()
596    { l.clear(); }
597   
598    void expand(size_t k)
599    {
600        if (l.empty())
601            l.insert(std::make_pair(k, k+1));
602        else
603        {
604            auto it = l.end();
605            --it;
606            it->second = k+1;
607        }
608    }
609    void newRegion(size_t k)
610    {
611        if (l.empty())
612            l.insert(std::make_pair(k, k));
613        else
614        {
615            auto it = l.end();
616            --it;
617            if (it->first != k && it->second != k)
618                l.insert(std::make_pair(k, k));
619        }
620    }
621   
622    void insert(size_t k, size_t k2)
623    {
624        auto it1 = l.lower_bound(k);
625        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
626            --it1;
627        if (it1->second < k)
628            ++it1;
629        auto it2 = l.lower_bound(k2);
630        if (it1!=it2)
631        {
632            k = std::min(k, it1->first);
633            k2 = std::max(k2, (--it2)->second);
634            l.erase(it1, it2);
635        }
636        l.insert(std::make_pair(k, k2));
637    }
638   
639    bool contain(size_t t) const
640    {
641        auto it = l.lower_bound(t);
642        if (it==l.begin() && it->first>t)
643            return false;
644        if (it==l.end() || it->first>t)
645            --it;
646        return it->first<=t && t<it->second;
647    }
648   
649    bool common(const Liveness& b) const
650    {
651        auto i = l.begin();
652        auto j = b.l.begin();
653        for (; i != l.end() && j != b.l.end();)
654        {
655            if (i->first==i->second)
656            {
657                ++i;
658                continue;
659            }
660            if (j->first==j->second)
661            {
662                ++j;
663                continue;
664            }
665            if (i->first<j->first)
666            {
667                if (i->second > j->first)
668                    return true; // common place
669                ++i;
670            }
671            else
672            {
673                if (i->first < j->second)
674                    return true; // common place
675                ++j;
676            }
677        }
678        return false;
679    }
680};
681
682typedef AsmRegAllocator::VarIndexMap VarIndexMap;
683
684static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
685            const AsmSingleVReg& svreg)
686{
687    cxuint regType; // regtype
688    if (svreg.regVar!=nullptr)
689        regType = svreg.regVar->type;
690    else
691        for (regType = 0; regType < regTypesNum; regType++)
692            if (svreg.index >= regRanges[regType<<1] &&
693                svreg.index < regRanges[(regType<<1)+1])
694                break;
695    return regType;
696}
697
698static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
699        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
700        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
701{
702    size_t ssaId;
703    if (svreg.regVar==nullptr)
704        ssaId = 0;
705    else if (ssaIdIdx==0)
706        ssaId = ssaInfo.ssaIdBefore;
707    else if (ssaIdIdx==1)
708        ssaId = ssaInfo.ssaIdFirst;
709    else if (ssaIdIdx<ssaInfo.ssaIdChange)
710        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
711    else // last
712        ssaId = ssaInfo.ssaIdLast;
713   
714    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
715    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
716    const std::vector<size_t>& ssaIdIndices =
717                vregIndexMap.find(svreg)->second;
718    return livenesses[regType][ssaIdIndices[ssaId]];
719}
720
721typedef std::deque<FlowStackEntry3>::const_iterator FlowStackCIter;
722
723struct CLRX_INTERNAL VRegLastPos
724{
725    size_t ssaId; // last SSA id
726    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
727};
728
729/* TODO: add handling calls
730 * handle many start points in this code (for example many kernel's in same code)
731 * replace sets by vector, and sort and remove same values on demand
732 */
733
734typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
735
736static void putCrossBlockLivenesses(const std::deque<FlowStackEntry3>& flowStack,
737        const std::vector<CodeBlock>& codeBlocks,
738        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
739        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
740        size_t regTypesNum, const cxuint* regRanges)
741{
742    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
743    for (const auto& entry: cblock.ssaInfoMap)
744        if (entry.second.readBeforeWrite)
745        {
746            // find last
747            auto lvrit = lastVRegMap.find(entry.first);
748            if (lvrit == lastVRegMap.end())
749                continue; // not found
750            const VRegLastPos& lastPos = lvrit->second;
751            FlowStackCIter flit = lastPos.blockChain.back();
752            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
753            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
754            const std::vector<size_t>& ssaIdIndices =
755                        vregIndexMap.find(entry.first)->second;
756            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
757            FlowStackCIter flitEnd = flowStack.end();
758            --flitEnd; // before last element
759            // insert live time to last seen position
760            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
761            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
762            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
763                    toLiveCvt + lastBlk.end);
764            for (++flit; flit != flitEnd; ++flit)
765            {
766                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
767                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
768                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
769            }
770        }
771}
772
773static void putCrossBlockForLoop(const std::deque<FlowStackEntry3>& flowStack,
774        const std::vector<CodeBlock>& codeBlocks,
775        const Array<size_t>& codeBlockLiveTimes,
776        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
777        size_t regTypesNum, const cxuint* regRanges)
778{
779    auto flitStart = flowStack.end();
780    --flitStart;
781    size_t curBlock = flitStart->blockIndex;
782    // find step in way
783    while (flitStart->blockIndex != curBlock) --flitStart;
784    auto flitEnd = flowStack.end();
785    --flitEnd;
786    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
787   
788    // collect var to check
789    size_t flowPos = 0;
790    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
791    {
792        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
793        for (const auto& entry: cblock.ssaInfoMap)
794        {
795            const SSAInfo& sinfo = entry.second;
796            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
797                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
798            varMap[entry.first] = { lastSSAId, flowPos };
799        }
800    }
801    // find connections
802    flowPos = 0;
803    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
804    {
805        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
806        for (const auto& entry: cblock.ssaInfoMap)
807        {
808            const SSAInfo& sinfo = entry.second;
809            auto varMapIt = varMap.find(entry.first);
810            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
811                flowPos > varMapIt->second.second ||
812                sinfo.ssaIdBefore != varMapIt->second.first)
813                continue;
814            // just connect
815           
816            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
817            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
818            const std::vector<size_t>& ssaIdIndices =
819                        vregIndexMap.find(entry.first)->second;
820            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
821           
822            if (flowPos == varMapIt->second.second)
823            {
824                // fill whole loop
825                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
826                {
827                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
828                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
829                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
830                }
831                continue;
832            }
833           
834            size_t flowPos2 = 0;
835            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
836            {
837                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
838                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
839                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
840            }
841            // insert liveness for last block in loop of last SSAId (prev round)
842            auto flit2 = flitStart + flowPos;
843            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
844            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
845            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
846                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
847            // insert liveness for first block in loop of last SSAId
848            flit2 = flitStart + (varMapIt->second.second+1);
849            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
850            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
851            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
852                    toLiveCvt + lastBlk.end);
853            // fill up loop end
854            for (++flit2; flit2 != flitEnd; ++flit2)
855            {
856                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
857                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
858                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
859            }
860        }
861    }
862}
863
864struct LiveBlock
865{
866    size_t start;
867    size_t end;
868    size_t vidx;
869   
870    bool operator==(const LiveBlock& b) const
871    { return start==b.start && end==b.end && vidx==b.vidx; }
872   
873    bool operator<(const LiveBlock& b) const
874    { return start<b.start || (start==b.start &&
875            (end<b.end || (end==b.end && vidx<b.vidx))); }
876};
877
878typedef AsmRegAllocator::LinearDep LinearDep;
879typedef AsmRegAllocator::EqualToDep EqualToDep;
880typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
881typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
882
883static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
884            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
885            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
886            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
887            size_t regTypesNum, const cxuint* regRanges)
888{
889    // add linear deps
890    cxuint count = ldeps[0];
891    cxuint pos = 1;
892    cxbyte rvuAdded = 0;
893    for (cxuint i = 0; i < count; i++)
894    {
895        cxuint ccount = ldeps[pos++];
896        std::vector<size_t> vidxes;
897        cxuint regType = UINT_MAX;
898        cxbyte align = rvus[ldeps[pos]].align;
899        for (cxuint j = 0; j < ccount; j++)
900        {
901            rvuAdded |= 1U<<ldeps[pos];
902            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
903            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
904            {
905                AsmSingleVReg svreg = {rvu.regVar, k};
906                auto sit = ssaIdIdxMap.find(svreg);
907                if (regType==UINT_MAX)
908                    regType = getRegType(regTypesNum, regRanges, svreg);
909                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
910                const std::vector<size_t>& ssaIdIndices =
911                            vregIndexMap.find(svreg)->second;
912                // push variable index
913                vidxes.push_back(ssaIdIndices[sit->second]);
914            }
915        }
916        ldepsOut[regType][vidxes[0]].align = align;
917        for (size_t k = 1; k < vidxes.size(); k++)
918        {
919            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
920            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
921        }
922    }
923    // add single arg linear dependencies
924    for (cxuint i = 0; i < rvusNum; i++)
925        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
926        {
927            const AsmRegVarUsage& rvu = rvus[i];
928            std::vector<size_t> vidxes;
929            cxuint regType = UINT_MAX;
930            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
931            {
932                AsmSingleVReg svreg = {rvu.regVar, k};
933                auto sit = ssaIdIdxMap.find(svreg);
934                if (regType==UINT_MAX)
935                    regType = getRegType(regTypesNum, regRanges, svreg);
936                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
937                const std::vector<size_t>& ssaIdIndices =
938                            vregIndexMap.find(svreg)->second;
939                // push variable index
940                vidxes.push_back(ssaIdIndices[sit->second]);
941            }
942            for (size_t j = 1; j < vidxes.size(); j++)
943            {
944                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
945                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
946            }
947        }
948       
949    /* equalTo dependencies */
950    count = edeps[0];
951    pos = 1;
952    for (cxuint i = 0; i < count; i++)
953    {
954        cxuint ccount = edeps[pos++];
955        std::vector<size_t> vidxes;
956        cxuint regType = UINT_MAX;
957        for (cxuint j = 0; j < ccount; j++)
958        {
959            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
960            // only one register should be set for equalTo depencencies
961            // other registers in range will be resolved by linear dependencies
962            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
963            auto sit = ssaIdIdxMap.find(svreg);
964            if (regType==UINT_MAX)
965                regType = getRegType(regTypesNum, regRanges, svreg);
966            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
967            const std::vector<size_t>& ssaIdIndices =
968                        vregIndexMap.find(svreg)->second;
969            // push variable index
970            vidxes.push_back(ssaIdIndices[sit->second]);
971        }
972        for (size_t j = 1; j < vidxes.size(); j++)
973        {
974            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
975            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
976        }
977    }
978}
979
980typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
981
982struct EqualStackEntry
983{
984    EqualToDepMapCIter etoDepIt;
985    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
986};
987
988void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
989{
990    // construct var index maps
991    size_t graphVregsCounts[MAX_REGTYPES_NUM];
992    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
993    cxuint regRanges[MAX_REGTYPES_NUM*2];
994    size_t regTypesNum;
995    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
996   
997    for (const CodeBlock& cblock: codeBlocks)
998        for (const auto& entry: cblock.ssaInfoMap)
999        {
1000            const SSAInfo& sinfo = entry.second;
1001            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
1002            VarIndexMap& vregIndices = vregIndexMaps[regType];
1003            size_t& graphVregsCount = graphVregsCounts[regType];
1004            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
1005            size_t ssaIdCount = 0;
1006            if (sinfo.readBeforeWrite)
1007                ssaIdCount = sinfo.ssaIdBefore+1;
1008            if (sinfo.ssaIdChange!=0)
1009            {
1010                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
1011                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
1012            }
1013            if (ssaIdIndices.size() < ssaIdCount)
1014                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
1015           
1016            if (sinfo.readBeforeWrite)
1017                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
1018            if (sinfo.ssaIdChange!=0)
1019            {
1020                // fill up ssaIdIndices (with graph Ids)
1021                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
1022                for (size_t ssaId = sinfo.ssaId+1;
1023                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
1024                    ssaIdIndices[ssaId] = graphVregsCount++;
1025                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
1026            }
1027        }
1028   
1029    // construct vreg liveness
1030    std::deque<FlowStackEntry3> flowStack;
1031    std::vector<bool> visited(codeBlocks.size(), false);
1032    // hold last vreg ssaId and position
1033    LastVRegMap lastVRegMap;
1034    // hold start live time position for every code block
1035    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
1036    std::unordered_set<size_t> blockInWay;
1037   
1038    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
1039   
1040    for (size_t i = 0; i < regTypesNum; i++)
1041        livenesses[i].resize(graphVregsCounts[i]);
1042   
1043    size_t curLiveTime = 0;
1044   
1045    while (!flowStack.empty())
1046    {
1047        FlowStackEntry3& entry = flowStack.back();
1048        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1049       
1050        if (entry.nextIndex == 0)
1051        {
1052            // process current block
1053            if (!blockInWay.insert(entry.blockIndex).second)
1054            {
1055                // if loop
1056                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
1057                        livenesses, vregIndexMaps, regTypesNum, regRanges);
1058                flowStack.pop_back();
1059                continue;
1060            }
1061           
1062            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
1063            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
1064                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
1065           
1066            for (const auto& sentry: cblock.ssaInfoMap)
1067            {
1068                const SSAInfo& sinfo = sentry.second;
1069                // update
1070                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
1071                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
1072                FlowStackCIter flit = flowStack.end();
1073                --flit; // to last position
1074                auto res = lastVRegMap.insert({ sentry.first, 
1075                            { lastSSAId, { flit } } });
1076                if (!res.second) // if not first seen, just update
1077                {
1078                    // update last
1079                    res.first->second.ssaId = lastSSAId;
1080                    res.first->second.blockChain.push_back(flit);
1081                }
1082            }
1083           
1084            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
1085            if (!visited[entry.blockIndex])
1086            {
1087                visited[entry.blockIndex] = true;
1088                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
1089                AsmRegVarUsage instrRVUs[8];
1090                cxuint instrRVUsCount = 0;
1091               
1092                size_t oldOffset = cblock.usagePos.readOffset;
1093                std::vector<AsmSingleVReg> readSVRegs;
1094                std::vector<AsmSingleVReg> writtenSVRegs;
1095               
1096                usageHandler.setReadPos(cblock.usagePos);
1097                // register in liveness
1098                while (true)
1099                {
1100                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
1101                    size_t liveTimeNext = curBlockLiveEnd;
1102                    if (usageHandler.hasNext())
1103                    {
1104                        rvu = usageHandler.nextUsage();
1105                        if (rvu.offset >= cblock.end)
1106                            break;
1107                        if (!rvu.useRegMode)
1108                            instrRVUs[instrRVUsCount++] = rvu;
1109                        liveTimeNext = std::min(rvu.offset, cblock.end) -
1110                                cblock.start + curLiveTime;
1111                    }
1112                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
1113                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
1114                    {
1115                        // apply to liveness
1116                        for (AsmSingleVReg svreg: readSVRegs)
1117                        {
1118                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
1119                                    cblock.ssaInfoMap.find(svreg)->second,
1120                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
1121                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
1122                                lv.newRegion(curLiveTime); // begin region from this block
1123                            lv.expand(liveTime);
1124                        }
1125                        for (AsmSingleVReg svreg: writtenSVRegs)
1126                        {
1127                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
1128                            ssaIdIdx++;
1129                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
1130                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
1131                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
1132                            if (liveTimeNext != curBlockLiveEnd)
1133                                // because live after this instr
1134                                lv.newRegion(liveTimeNext);
1135                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
1136                        }
1137                        // get linear deps and equal to
1138                        cxbyte lDeps[16];
1139                        cxbyte eDeps[16];
1140                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
1141                                        lDeps, eDeps);
1142                       
1143                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
1144                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
1145                                regTypesNum, regRanges);
1146                       
1147                        readSVRegs.clear();
1148                        writtenSVRegs.clear();
1149                        if (!usageHandler.hasNext())
1150                            break; // end
1151                        oldOffset = rvu.offset;
1152                        instrRVUsCount = 0;
1153                    }
1154                    if (rvu.offset >= cblock.end)
1155                        break;
1156                   
1157                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1158                    {
1159                        // per register/singlvreg
1160                        AsmSingleVReg svreg{ rvu.regVar, rindex };
1161                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
1162                            writtenSVRegs.push_back(svreg);
1163                        else // read or treat as reading // expand previous region
1164                            readSVRegs.push_back(svreg);
1165                    }
1166                }
1167                curLiveTime += cblock.end-cblock.start;
1168            }
1169            else
1170            {
1171                // back, already visited
1172                flowStack.pop_back();
1173                continue;
1174            }
1175        }
1176        if (entry.nextIndex < cblock.nexts.size())
1177        {
1178            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1179            entry.nextIndex++;
1180        }
1181        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
1182        {
1183            flowStack.push_back({ entry.blockIndex+1, 0 });
1184            entry.nextIndex++;
1185        }
1186        else // back
1187        {
1188            // revert lastSSAIdMap
1189            blockInWay.erase(entry.blockIndex);
1190            flowStack.pop_back();
1191            if (!flowStack.empty())
1192            {
1193                for (const auto& sentry: cblock.ssaInfoMap)
1194                {
1195                    auto lvrit = lastVRegMap.find(sentry.first);
1196                    if (lvrit != lastVRegMap.end())
1197                    {
1198                        VRegLastPos& lastPos = lvrit->second;
1199                        lastPos.ssaId = sentry.second.ssaIdBefore;
1200                        lastPos.blockChain.pop_back();
1201                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
1202                            lastVRegMap.erase(lvrit);
1203                    }
1204                }
1205            }
1206        }
1207    }
1208   
1209    /// construct liveBlockMaps
1210    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
1211    for (size_t regType = 0; regType < regTypesNum; regType++)
1212    {
1213        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
1214        std::vector<Liveness>& liveness = livenesses[regType];
1215        for (size_t li = 0; li < liveness.size(); li++)
1216        {
1217            Liveness& lv = liveness[li];
1218            for (const std::pair<size_t, size_t>& blk: lv.l)
1219                if (blk.first != blk.second)
1220                    liveBlockMap.insert({ blk.first, blk.second, li });
1221            lv.clear();
1222        }
1223        liveness.clear();
1224    }
1225   
1226    // create interference graphs
1227    for (size_t regType = 0; regType < regTypesNum; regType++)
1228    {
1229        InterGraph& interGraph = interGraphs[regType];
1230        interGraph.resize(graphVregsCounts[regType]);
1231        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
1232       
1233        auto lit = liveBlockMap.begin();
1234        size_t rangeStart = 0;
1235        if (lit != liveBlockMap.end())
1236            rangeStart = lit->start;
1237        while (lit != liveBlockMap.end())
1238        {
1239            const size_t blkStart = lit->start;
1240            const size_t blkEnd = lit->end;
1241            size_t rangeEnd = blkEnd;
1242            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
1243            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
1244            // collect from this range, variable indices
1245            std::set<size_t> varIndices;
1246            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
1247                varIndices.insert(lit2->vidx);
1248            // push to intergraph as full subgGraph
1249            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
1250                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
1251                    if (vit != vit2)
1252                        interGraph[*vit].insert(*vit2);
1253            // go to next live blocks
1254            rangeStart = rangeEnd;
1255            for (; lit != liveBlockMap.end(); ++lit)
1256                if (lit->start != blkStart && lit->end != blkEnd)
1257                    break;
1258            if (lit == liveBlockMap.end())
1259                break; //
1260            rangeStart = std::max(rangeStart, lit->start);
1261        }
1262    }
1263   
1264    /*
1265     * resolve equalSets
1266     */
1267    for (cxuint regType = 0; regType < regTypesNum; regType++)
1268    {
1269        InterGraph& interGraph = interGraphs[regType];
1270        const size_t nodesNum = interGraph.size();
1271        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
1272        std::vector<bool> visited(nodesNum, false);
1273        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
1274       
1275        for (size_t v = 0; v < nodesNum;)
1276        {
1277            auto it = etoDepMap.find(v);
1278            if (it == etoDepMap.end())
1279            {
1280                // is not regvar in equalTo dependencies
1281                v++;
1282                continue;
1283            }
1284           
1285            std::stack<EqualStackEntry> etoStack;
1286            etoStack.push(EqualStackEntry{ it, 0 });
1287           
1288            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
1289            const size_t equalSetIndex = equalSetList.size();
1290            equalSetList.push_back(std::vector<size_t>());
1291            std::vector<size_t>& equalSet = equalSetList.back();
1292           
1293            // traverse by this
1294            while (!etoStack.empty())
1295            {
1296                EqualStackEntry& entry = etoStack.top();
1297                size_t vidx = entry.etoDepIt->first; // node index, vreg index
1298                const EqualToDep& eToDep = entry.etoDepIt->second;
1299                if (entry.nextIdx == 0)
1300                {
1301                    if (!visited[vidx])
1302                    {
1303                        // push to this equalSet
1304                        equalSetMap.insert({ vidx, equalSetIndex });
1305                        equalSet.push_back(vidx);
1306                    }
1307                    else
1308                    {
1309                        // already visited
1310                        etoStack.pop();
1311                        continue;
1312                    }
1313                }
1314               
1315                if (entry.nextIdx < eToDep.nextVidxes.size())
1316                {
1317                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
1318                    etoStack.push(EqualStackEntry{ nextIt, 0 });
1319                    entry.nextIdx++;
1320                }
1321                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
1322                {
1323                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
1324                                entry.nextIdx - eToDep.nextVidxes.size()]);
1325                    etoStack.push(EqualStackEntry{ nextIt, 0 });
1326                    entry.nextIdx++;
1327                }
1328                else
1329                    etoStack.pop();
1330            }
1331           
1332            // to first already added node (var)
1333            while (v < nodesNum && !visited[v]) v++;
1334        }
1335    }
1336}
1337
1338typedef AsmRegAllocator::InterGraph InterGraph;
1339
1340struct CLRX_INTERNAL SDOLDOCompare
1341{
1342    const InterGraph& interGraph;
1343    const Array<size_t>& sdoCounts;
1344   
1345    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
1346        : interGraph(_interGraph), sdoCounts(_sdoCounts)
1347    { }
1348   
1349    bool operator()(size_t a, size_t b) const
1350    {
1351        if (sdoCounts[a] > sdoCounts[b])
1352            return true;
1353        return interGraph[a].size() > interGraph[b].size();
1354    }
1355};
1356
1357/* algorithm to allocate regranges:
1358 * from smallest regranges to greatest regranges:
1359 *   choosing free register: from smallest free regranges
1360 *      to greatest regranges:
1361 *         in this same regrange:
1362 *               try to find free regs in regranges
1363 *               try to link free ends of two distinct regranges
1364 */
1365
1366void AsmRegAllocator::colorInterferenceGraph()
1367{
1368    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
1369                    assembler.deviceType);
1370   
1371    for (size_t regType = 0; regType < regTypesNum; regType++)
1372    {
1373        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
1374        InterGraph& interGraph = interGraphs[regType];
1375        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1376        Array<cxuint>& gcMap = graphColorMaps[regType];
1377        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
1378        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
1379       
1380        const size_t nodesNum = interGraph.size();
1381        gcMap.resize(nodesNum);
1382        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
1383        Array<size_t> sdoCounts(nodesNum);
1384        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
1385       
1386        SDOLDOCompare compare(interGraph, sdoCounts);
1387        std::set<size_t, SDOLDOCompare> nodeSet(compare);
1388        for (size_t i = 0; i < nodesNum; i++)
1389            nodeSet.insert(i);
1390       
1391        cxuint colorsNum = 0;
1392        // firstly, allocate real registers
1393        for (const auto& entry: vregIndexMap)
1394            if (entry.first.regVar == nullptr)
1395                gcMap[entry.second[0]] = colorsNum++;
1396       
1397        for (size_t colored = 0; colored < nodesNum; colored++)
1398        {
1399            size_t node = *nodeSet.begin();
1400            if (gcMap[node] != UINT_MAX)
1401                continue; // already colored
1402            size_t color = 0;
1403            std::vector<size_t> equalNodes;
1404            equalNodes.push_back(node); // only one node, if equalSet not found
1405            auto equalSetMapIt = equalSetMap.find(node);
1406            if (equalSetMapIt != equalSetMap.end())
1407                // found, get equal set from equalSetList
1408                equalNodes = equalSetList[equalSetMapIt->second];
1409           
1410            for (color = 0; color <= colorsNum; color++)
1411            {
1412                // find first usable color
1413                bool thisSame = false;
1414                for (size_t nb: interGraph[node])
1415                    if (gcMap[nb] == color)
1416                    {
1417                        thisSame = true;
1418                        break;
1419                    }
1420                if (!thisSame)
1421                    break;
1422            }
1423            if (color==colorsNum) // add new color if needed
1424            {
1425                if (colorsNum >= maxColorsNum)
1426                    throw AsmException("Too many register is needed");
1427                colorsNum++;
1428            }
1429           
1430            for (size_t nextNode: equalNodes)
1431                gcMap[nextNode] = color;
1432            // update SDO for node
1433            bool colorExists = false;
1434            for (size_t node: equalNodes)
1435            {
1436                for (size_t nb: interGraph[node])
1437                    if (gcMap[nb] == color)
1438                    {
1439                        colorExists = true;
1440                        break;
1441                    }
1442                if (!colorExists)
1443                    sdoCounts[node]++;
1444            }
1445            // update SDO for neighbors
1446            for (size_t node: equalNodes)
1447                for (size_t nb: interGraph[node])
1448                {
1449                    colorExists = false;
1450                    for (size_t nb2: interGraph[nb])
1451                        if (gcMap[nb2] == color)
1452                        {
1453                            colorExists = true;
1454                            break;
1455                        }
1456                    if (!colorExists)
1457                    {
1458                        if (gcMap[nb] == UINT_MAX)
1459                            nodeSet.erase(nb);  // before update we erase from nodeSet
1460                        sdoCounts[nb]++;
1461                        if (gcMap[nb] == UINT_MAX)
1462                            nodeSet.insert(nb); // after update, insert again
1463                    }
1464                }
1465           
1466            for (size_t nextNode: equalNodes)
1467                gcMap[nextNode] = color;
1468        }
1469    }
1470}
1471
1472void AsmRegAllocator::allocateRegisters(cxuint sectionId)
1473{
1474    // before any operation, clear all
1475    codeBlocks.clear();
1476    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
1477    {
1478        vregIndexMaps[i].clear();
1479        interGraphs[i].clear();
1480        linearDepMaps[i].clear();
1481        equalToDepMaps[i].clear();
1482        graphColorMaps[i].clear();
1483        equalSetMaps[i].clear();
1484        equalSetLists[i].clear();
1485    }
1486    ssaReplacesMap.clear();
1487    cxuint maxRegs[MAX_REGTYPES_NUM];
1488    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
1489   
1490    // set up
1491    const AsmSection& section = assembler.sections[sectionId];
1492    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
1493    createSSAData(*section.usageHandler);
1494    applySSAReplaces();
1495    createInterferenceGraph(*section.usageHandler);
1496    colorInterferenceGraph();
1497}
Note: See TracBrowser for help on using the repository browser.