source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3896

Last change on this file since 3896 was 3896, checked in by matszpk, 15 months ago

CLRadeonExtender: AsmRegAlloc?: Stupid segfault in while passing by loop inside routines. Add new testcase (loop inside routines).

File size: 115.1 KB
RevLine 
[2948]1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
[3575]3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
[2948]4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
[3648]21#include <iostream>
[2972]22#include <stack>
[2967]23#include <deque>
[2948]24#include <vector>
25#include <utility>
[2979]26#include <unordered_set>
[3008]27#include <map>
[3013]28#include <set>
[2952]29#include <unordered_map>
[2948]30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
[2952]32#include <CLRX/utils/Containers.h>
[2948]33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
[2967]38typedef AsmRegAllocator::CodeBlock CodeBlock;
[2990]39typedef AsmRegAllocator::NextBlock NextBlock;
[2967]40typedef AsmRegAllocator::SSAInfo SSAInfo;
[3845]41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
[2967]42
[2948]43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
[3457]81            throw AsmException("Offset before previous instruction");
[2948]82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
[3457]83            throw AsmException("Offset between previous instruction");
[2948]84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
[3396]153        {
154            // normal regvarusages
[2948]155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
[3398]161        else
[2948]162        {
[3398]163            // use reg regvarusages
[2948]164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
[3457]174        throw AsmException("No reg usage in this code");
[2948]175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
[3396]180    {
181        // useRegMode (begin fetching useregs)
[2948]182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
[3015]189    rvu.useRegMode = useRegMode; // no ArgPos
[2948]190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
[3396]192    {
193        // regvar usage
[2948]194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
[3396]205    {
206        // simple reg usage
[2948]207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
[3396]219    {
220        // use reg (simple reg usage, second structure)
[2948]221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
[3396]231    {
232        // if inside useregs
[2948]233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
[2951]253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
[2959]257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
[3024]261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
[2951]265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
[3592]269    if (codeSize == 0)
270        return;
[2951]271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
[3029]279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
[2951]281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
[3023]302                splits.push_back(instrAfter);
[2951]303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
[3023]314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
[3025]315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
[2951]329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
[3025]342   
[2951]343    std::sort(codeStarts.begin(), codeStarts.end());
[3031]344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
[2951]346    // divide to blocks
[3028]347    splitIt = splits.begin();
[2951]348    for (size_t codeStart: codeStarts)
349    {
[3024]350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
[2951]351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
[3023]352       
[3029]353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
[3026]356        for (size_t start = codeStart; start < codeEnd; )
[2951]357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
[3026]360            {
[2951]361                end = std::min(end, *splitIt);
[3026]362                ++splitIt;
363            }
[2986]364            codeBlocks.push_back({ start, end, { }, false, false, false });
[3026]365            start = end;
[2951]366        }
367    }
[3594]368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
[2952]373   
[2951]374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
[3024]379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
[2951]382           
[3024]383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
[3025]387            {
[3024]388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
[3027]389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
[3025]390                // if block have return
[2959]391                if (it != codeBlocks.end())
[3030]392                    it->haveEnd = it->haveReturn = true;
[2951]393                continue;
394            }
395           
[3027]396            if (it == codeBlocks.end())
[2951]397                continue; // error!
[3044]398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
[3028]400            auto curIt = it2;
401            --curIt;
[2959]402           
[3028]403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
[2955]404                        entry.type == AsmCodeFlowType::CALL });
[3582]405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
[3032]406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
[3614]410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
[3610]411                    // add next next block (only for cond jump)
[3032]412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
[3028]414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
[2951]416        }
[3032]417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
[3024]420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
[3026]422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
[3025]423            if (it != codeBlocks.end())
424                it->haveEnd = true;
[3024]425        }
[2957]426   
[3023]427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
[2957]430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
[3397]432    {
433        // first non-call nexts, for correct resolving SSA conflicts
[2957]434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
[2984]436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
[2957]438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
[2958]440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
[2957]441        block.nexts.resize(it - block.nexts.begin());
442    }
[2951]443}
444
[3839]445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
[3840]462    // sorted entries - sorted by usage
[3839]463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
[3841]468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
[3840]480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
[3839]485        {
[3840]486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
[3839]489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
[3848]523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
[3839]526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
[3841]539        // correct max weight if element have greater weight
[3845]540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
[3841]542       
[3839]543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
[3582]560// map of last SSAId for routine, key - varid, value - last SSA ids
[3844]561class CLRX_INTERNAL LastSSAIdMap: public
[3851]562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
[3844]563{
564public:
565    LastSSAIdMap()
566    { }
567   
[3851]568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
[3844]583    size_t weight() const
584    { return size(); }
585};
[3582]586
[3847]587typedef LastSSAIdMap RBWSSAIdMap;
[3844]588
589struct CLRX_INTERNAL RetSSAEntry
590{
[3643]591    std::vector<size_t> routines;
[3851]592    VectorSet<size_t> ssaIds;
[3884]593    size_t prevSSAId; // for curSSAId
[3643]594};
595
596typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
597
[3844]598struct CLRX_INTERNAL RoutineData
[3582]599{
[3615]600    // rbwSSAIdMap - read before write SSAId's map
[3618]601    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
[3646]602    LastSSAIdMap curSSAIdMap;
[3615]603    LastSSAIdMap lastSSAIdMap;
[3880]604    bool notFirstReturn;
[3865]605   
[3880]606    RoutineData() : notFirstReturn(false)
[3879]607    { }
608   
[3865]609    size_t weight() const
610    { return rbwSSAIdMap.size() + lastSSAIdMap.weight(); }
[3582]611};
612
[3844]613struct CLRX_INTERNAL FlowStackEntry
[2988]614{
615    size_t blockIndex;
616    size_t nextIndex;
[3863]617    bool isCall;
[3645]618    RetSSAIdMap prevRetSSAIdSets;
[2988]619};
620
[3844]621struct CLRX_INTERNAL FlowStackEntry2
[3616]622{
623    size_t blockIndex;
624    size_t nextIndex;
625};
626
627
[3853]628struct CLRX_INTERNAL CallStackEntry
[3582]629{
630    size_t callBlock; // index
631    size_t callNextIndex; // index of call next
[3616]632    size_t routineBlock;    // routine block
[3582]633};
634
[3855]635class ResSecondPointsToCache: public std::vector<bool>
636{
637public:
638    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
639    { }
640   
641    void increase(size_t i)
642    {
643        if ((*this)[i<<1])
644            (*this)[(i<<1)+1] = true;
645        else
646            (*this)[i<<1] = true;
647    }
648   
649    cxuint count(size_t i) const
650    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
651};
652
[3038]653typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
[3039]654typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
[2976]655
[3039]656static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
[2976]657              size_t origId, size_t destId)
658{
659    auto res = rmap.insert({ vreg, {} });
660    res.first->second.push_back({ origId, destId });
661}
662
[3857]663static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
664            const LastSSAIdMap* stackVarMap,
[3853]665            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
[3846]666            FlowStackEntry2& entry, const SSAEntry& sentry,
667            RBWSSAIdMap* cacheSecPoints)
[3838]668{
669    const SSAInfo& sinfo = sentry.second;
[3853]670    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
[3838]671   
672    if (res.second && sinfo.readBeforeWrite)
673    {
[3846]674        if (cacheSecPoints != nullptr)
[3847]675        {
676            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
677            if (!res.second)
[3851]678                res.first->second.insertValue(sinfo.ssaIdBefore);
[3847]679        }
[3846]680       
[3857]681        if (stackVarMap != nullptr)
[3838]682        {
[3857]683           
684            // resolve conflict for this variable ssaId>.
685            // only if in previous block previous SSAID is
686            // read before all writes
687            auto it = stackVarMap->find(sentry.first);
688           
689            if (it != stackVarMap->end())
[3838]690            {
[3857]691                // found, resolve by set ssaIdLast
692                for (size_t ssaId: it->second)
[3838]693                {
[3857]694                    if (ssaId > sinfo.ssaIdBefore)
695                    {
696                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
697                            sentry.first.index  << ": " <<
698                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
699                        insertReplace(*replacesMap, sentry.first, ssaId,
700                                    sinfo.ssaIdBefore);
701                    }
702                    else if (ssaId < sinfo.ssaIdBefore)
703                    {
704                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
705                            sentry.first.index  << ": " <<
706                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
707                        insertReplace(*replacesMap, sentry.first,
708                                        sinfo.ssaIdBefore, ssaId);
709                    }
710                    /*else
711                        std::cout << "  noinsertreplace: " <<
712                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
[3838]713                }
714            }
715        }
716    }
717}
718
[3848]719typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
720
[3857]721static void useResSecPointCache(SSAReplacesMap* replacesMap,
722        const LastSSAIdMap* stackVarMap,
[3856]723        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
724        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
725        RBWSSAIdMap* destCacheSecPoints)
726{
[3860]727    std::cout << "use resSecPointCache for " << nextBlock <<
728            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
[3856]729    for (const auto& sentry: *resSecondPoints)
730    {
731        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
732        if (destCacheSecPoints != nullptr && !alreadyRead)
733        {
734            auto res = destCacheSecPoints->insert(sentry);
735            if (!res.second)
736                for (size_t srcSSAId: sentry.second)
737                    res.first->second.insertValue(srcSSAId);
738        }
739       
[3857]740        if (stackVarMap != nullptr)
[3856]741        {
[3857]742            auto it = stackVarMap->find(sentry.first);
743           
744            if (it != stackVarMap->end() && !alreadyRead)
[3856]745            {
[3857]746                // found, resolve by set ssaIdLast
747                for (size_t ssaId: it->second)
[3856]748                {
[3857]749                    for (size_t secSSAId: sentry.second)
[3856]750                    {
[3857]751                        if (ssaId > secSSAId)
752                        {
753                            std::cout << "  insertreplace: " <<
754                                sentry.first.regVar << ":" <<
755                                sentry.first.index  << ": " <<
756                                ssaId << ", " << secSSAId << std::endl;
[3864]757                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
[3857]758                        }
759                        else if (ssaId < secSSAId)
760                        {
761                            std::cout << "  insertreplace2: " <<
762                                sentry.first.regVar << ":" <<
763                                sentry.first.index  << ": " <<
764                                ssaId << ", " << secSSAId << std::endl;
[3864]765                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
[3857]766                        }
767                        /*else
768                            std::cout << "  noinsertreplace: " <<
769                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
[3856]770                    }
[3857]771                }
772            }
773        }
774    }
775}
776
777static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
778                const std::vector<CodeBlock>& codeBlocks,
779                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
780                size_t nextBlock)
781{
782    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
783    //std::stack<CallStackEntry> callStack = prevCallStack;
784    // traverse by graph from next block
785    std::deque<FlowStackEntry2> flowStack;
786    flowStack.push_back({ nextBlock, 0 });
787    std::vector<bool> visited(codeBlocks.size(), false);
788   
789    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
790   
791    RBWSSAIdMap cacheSecPoints;
792   
793    while (!flowStack.empty())
794    {
795        FlowStackEntry2& entry = flowStack.back();
796        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
797       
798        if (entry.nextIndex == 0)
799        {
800            // process current block
801            if (!visited[entry.blockIndex])
802            {
803                visited[entry.blockIndex] = true;
804                std::cout << "  resolv: " << entry.blockIndex << std::endl;
805               
[3861]806                const RBWSSAIdMap* resSecondPoints =
807                            resSecondPointsCache.use(entry.blockIndex);
[3857]808                if (resSecondPoints == nullptr)
809                    for (auto& sentry: cblock.ssaInfoMap)
810                        handleSSAEntryWhileResolving(nullptr, nullptr,
811                                alreadyReadMap, entry, sentry,
812                                &cacheSecPoints);
813                else // to use cache
814                {
815                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
816                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
817                    flowStack.pop_back();
818                    continue;
819                }
820            }
821            else
822            {
823                // back, already visited
824                std::cout << "resolv already: " << entry.blockIndex << std::endl;
825                flowStack.pop_back();
826                continue;
827            }
828        }
829       
830        /*if (!callStack.empty() &&
831            entry.blockIndex == callStack.top().callBlock &&
832            entry.nextIndex-1 == callStack.top().callNextIndex)
833            callStack.pop(); // just return from call
834        */
835        if (entry.nextIndex < cblock.nexts.size())
836        {
837            /*if (cblock.nexts[entry.nextIndex].isCall)
838                callStack.push({ entry.blockIndex, entry.nextIndex,
839                            cblock.nexts[entry.nextIndex].block });*/
840            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
841            entry.nextIndex++;
842        }
843        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
844                // if have any call then go to next block
845                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
846                 !cblock.haveReturn && !cblock.haveEnd)
847        {
848            // add toResolveMap ssaIds inside called routines
849            for (const auto& next: cblock.nexts)
850                if (next.isCall)
851                {
852                    const RoutineData& rdata = routineMap.find(next.block)->second;
853                    for (const auto& v: rdata.rbwSSAIdMap)
854                        alreadyReadMap.insert({v.first, entry.blockIndex });
855                    for (const auto& v: rdata.lastSSAIdMap)
856                        alreadyReadMap.insert({v.first, entry.blockIndex });
857                }
858           
859            flowStack.push_back({ entry.blockIndex+1, 0 });
860            entry.nextIndex++;
861        }
862        else // back
863        {
864            // remove old to resolve in leaved way to allow collecting next ssaId
865            // before write (can be different due to earlier visit)
866            for (const auto& next: cblock.nexts)
867                if (next.isCall)
868                {
869                    const RoutineData& rdata = routineMap.find(next.block)->second;
870                    for (const auto& v: rdata.rbwSSAIdMap)
[3856]871                    {
[3857]872                        auto it = alreadyReadMap.find(v.first);
873                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
874                            alreadyReadMap.erase(it);
[3856]875                    }
[3857]876                    for (const auto& v: rdata.lastSSAIdMap)
877                    {
878                        auto it = alreadyReadMap.find(v.first);
879                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
880                            alreadyReadMap.erase(it);
881                    }
[3856]882                }
[3857]883           
884            for (const auto& sentry: cblock.ssaInfoMap)
885            {
886                auto it = alreadyReadMap.find(sentry.first);
887                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
888                    // remove old to resolve in leaved way to allow collecting next ssaId
889                    // before write (can be different due to earlier visit)
890                    alreadyReadMap.erase(it);
[3856]891            }
[3857]892            std::cout << "  popresolv" << std::endl;
893            flowStack.pop_back();
[3856]894        }
895    }
[3857]896   
897    resSecondPointsCache.put(nextBlock, cacheSecPoints);
[3856]898}
899
[3857]900
[3848]901static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
[3582]902        const std::unordered_map<size_t, RoutineData>& routineMap,
[2986]903        const std::vector<CodeBlock>& codeBlocks,
[3848]904        const PrevWaysIndexMap& prevWaysIndexMap,
[3855]905        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
[3848]906        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
[3846]907        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
[3619]908        SSAReplacesMap& replacesMap)
[2967]909{
[2986]910    size_t nextBlock = prevFlowStack.back().blockIndex;
911    auto pfEnd = prevFlowStack.end();
912    --pfEnd;
[3653]913    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
[3582]914    LastSSAIdMap stackVarMap;
[3848]915   
916    size_t pfStartIndex = 0;
[3849]917    {
918        auto pfPrev = pfEnd;
919        --pfPrev;
[3848]920        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
921        if (it != prevWaysIndexMap.end())
922        {
[3850]923            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
[3848]924            if (cached!=nullptr)
925            {
[3850]926                std::cout << "use pfcached: " << it->second.first << ", " <<
927                        it->second.second << std::endl;
[3848]928                stackVarMap = *cached;
929                pfStartIndex = it->second.second+1;
930            }
931        }
[3849]932    }
[3848]933   
934    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
[2967]935    {
[3848]936        const FlowStackEntry2& entry = *pfit;
[3654]937        std::cout << "  apply: " << entry.blockIndex << std::endl;
[2967]938        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
939        for (const auto& sentry: cblock.ssaInfoMap)
940        {
941            const SSAInfo& sinfo = sentry.second;
[2976]942            if (sinfo.ssaIdChange != 0)
[3582]943                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
[2967]944        }
[3654]945        if (entry.nextIndex > cblock.nexts.size())
946            for (const NextBlock& next: cblock.nexts)
947                if (next.isCall)
948                {
949                    std::cout << "  applycall: " << entry.blockIndex << ": " <<
950                            entry.nextIndex << ": " << next.block << std::endl;
951                    const LastSSAIdMap& regVarMap =
952                            routineMap.find(next.block)->second.lastSSAIdMap;
953                    for (const auto& sentry: regVarMap)
954                        stackVarMap[sentry.first] = sentry.second;
955                }
[3848]956       
957        // put to first point cache
958        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
[3850]959        {
960            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
[3848]961            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
[3850]962        }
[2967]963    }
[2976]964   
[3846]965    RBWSSAIdMap cacheSecPoints;
[3857]966    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
[3855]967                cblocksToCache.count(nextBlock)>=2;
[3846]968   
[3616]969    //std::stack<CallStackEntry> callStack = prevCallStack;
[2967]970    // traverse by graph from next block
[3616]971    std::deque<FlowStackEntry2> flowStack;
[2976]972    flowStack.push_back({ nextBlock, 0 });
[2999]973    std::vector<bool> visited(codeBlocks.size(), false);
[2967]974   
[3853]975    // already read in current path
[3609]976    // key - vreg, value - source block where vreg of conflict found
[3853]977    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
[2968]978   
[2967]979    while (!flowStack.empty())
980    {
[3616]981        FlowStackEntry2& entry = flowStack.back();
[2986]982        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
[2967]983       
984        if (entry.nextIndex == 0)
[3397]985        {
986            // process current block
[2967]987            if (!visited[entry.blockIndex])
988            {
989                visited[entry.blockIndex] = true;
[3645]990                std::cout << "  resolv: " << entry.blockIndex << std::endl;
[3655]991               
[3861]992                const RBWSSAIdMap* resSecondPoints =
993                        resSecondPointsCache.use(entry.blockIndex);
[3856]994                if (resSecondPoints == nullptr)
995                    for (auto& sentry: cblock.ssaInfoMap)
[3857]996                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
[3856]997                                alreadyReadMap, entry, sentry,
998                                toCache ? &cacheSecPoints : nullptr);
999                else // to use cache
1000                {
[3857]1001                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
[3856]1002                            resSecondPoints, entry.blockIndex,
1003                            toCache ? &cacheSecPoints : nullptr);
1004                    flowStack.pop_back();
1005                    continue;
1006                }
[2967]1007            }
1008            else
[3396]1009            {
[3855]1010                cblocksToCache.increase(entry.blockIndex);
1011                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1012                            cblocksToCache.count(entry.blockIndex) << std::endl;
[3396]1013                // back, already visited
[3653]1014                std::cout << "resolv already: " << entry.blockIndex << std::endl;
[2967]1015                flowStack.pop_back();
1016                continue;
1017            }
1018        }
1019       
[3616]1020        /*if (!callStack.empty() &&
[3582]1021            entry.blockIndex == callStack.top().callBlock &&
1022            entry.nextIndex-1 == callStack.top().callNextIndex)
1023            callStack.pop(); // just return from call
[3616]1024        */
[3652]1025        if (entry.nextIndex < cblock.nexts.size())
[2967]1026        {
[3616]1027            /*if (cblock.nexts[entry.nextIndex].isCall)
1028                callStack.push({ entry.blockIndex, entry.nextIndex,
1029                            cblock.nexts[entry.nextIndex].block });*/
[2967]1030            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1031            entry.nextIndex++;
1032        }
[2986]1033        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1034                // if have any call then go to next block
1035                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
[3652]1036                 !cblock.haveReturn && !cblock.haveEnd)
[2967]1037        {
[3655]1038            // add toResolveMap ssaIds inside called routines
1039            for (const auto& next: cblock.nexts)
1040                if (next.isCall)
1041                {
1042                    const RoutineData& rdata = routineMap.find(next.block)->second;
1043                    for (const auto& v: rdata.rbwSSAIdMap)
[3853]1044                        alreadyReadMap.insert({v.first, entry.blockIndex });
[3655]1045                    for (const auto& v: rdata.lastSSAIdMap)
[3853]1046                        alreadyReadMap.insert({v.first, entry.blockIndex });
[3655]1047                }
1048           
[2967]1049            flowStack.push_back({ entry.blockIndex+1, 0 });
1050            entry.nextIndex++;
1051        }
1052        else // back
[2973]1053        {
[3851]1054            // remove old to resolve in leaved way to allow collecting next ssaId
1055            // before write (can be different due to earlier visit)
[3655]1056            for (const auto& next: cblock.nexts)
1057                if (next.isCall)
1058                {
1059                    const RoutineData& rdata = routineMap.find(next.block)->second;
1060                    for (const auto& v: rdata.rbwSSAIdMap)
1061                    {
[3853]1062                        auto it = alreadyReadMap.find(v.first);
1063                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1064                            alreadyReadMap.erase(it);
[3655]1065                    }
1066                    for (const auto& v: rdata.lastSSAIdMap)
1067                    {
[3853]1068                        auto it = alreadyReadMap.find(v.first);
1069                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1070                            alreadyReadMap.erase(it);
[3655]1071                    }
1072                }
1073           
[2973]1074            for (const auto& sentry: cblock.ssaInfoMap)
[3396]1075            {
[3853]1076                auto it = alreadyReadMap.find(sentry.first);
1077                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
[3851]1078                    // remove old to resolve in leaved way to allow collecting next ssaId
1079                    // before write (can be different due to earlier visit)
[3853]1080                    alreadyReadMap.erase(it);
[2973]1081            }
[3645]1082            std::cout << "  popresolv" << std::endl;
[3857]1083           
1084            if (cblocksToCache.count(entry.blockIndex)==2 &&
1085                !resSecondPointsCache.hasKey(entry.blockIndex))
1086                // add to cache
1087                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1088                            entry.blockIndex);
1089           
[2967]1090            flowStack.pop_back();
[2973]1091        }
[2967]1092    }
[3846]1093   
[3847]1094    if (toCache)
1095        resSecondPointsCache.put(nextBlock, cacheSecPoints);
[2967]1096}
1097
[3643]1098static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1099                size_t routineBlock)
1100{
1101    for (const auto& entry: src)
1102    {
[3647]1103        std::cout << "  entry2: " << entry.first.regVar << ":" <<
[3643]1104                cxuint(entry.first.index) << ":";
1105        for (size_t v: entry.second)
1106            std::cout << " " << v;
[3645]1107        std::cout << std::endl;
[3643]1108        // insert if not inserted
1109        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1110        if (res.second)
1111            continue; // added new
[3851]1112        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
[3643]1113        res.first->second.routines.push_back(routineBlock);
1114        // add new ways
1115        for (size_t ssaId: entry.second)
[3851]1116            destEntry.insertValue(ssaId);
[3647]1117        std::cout << "    :";
[3643]1118        for (size_t v: destEntry)
1119            std::cout << " " << v;
[3645]1120        std::cout << std::endl;
[3643]1121    }
1122}
1123
[3582]1124static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1125{
1126    for (const auto& entry: src)
1127    {
[3646]1128        std::cout << "  entry: " << entry.first.regVar << ":" <<
[3620]1129                cxuint(entry.first.index) << ":";
1130        for (size_t v: entry.second)
1131            std::cout << " " << v;
[3645]1132        std::cout << std::endl;
[3582]1133        auto res = dest.insert(entry); // find
1134        if (res.second)
1135            continue; // added new
[3851]1136        VectorSet<size_t>& destEntry = res.first->second;
[3582]1137        // add new ways
1138        for (size_t ssaId: entry.second)
[3851]1139            destEntry.insertValue(ssaId);
[3646]1140        std::cout << "    :";
[3620]1141        for (size_t v: destEntry)
1142            std::cout << " " << v;
[3645]1143        std::cout << std::endl;
[3582]1144    }
1145}
1146
[3872]1147static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
[3877]1148                    const RoutineData& laterRdata, bool loop = false)
[3872]1149{
1150    for (const auto& entry: src)
1151    {
[3875]1152        auto lsit = laterRdata.lastSSAIdMap.find(entry.first);
1153        if (lsit != laterRdata.lastSSAIdMap.end())
1154        {
1155            auto csit = laterRdata.curSSAIdMap.find(entry.first);
1156            if (csit != laterRdata.curSSAIdMap.end() && !csit->second.empty())
1157            {
1158                // if found in last ssa ID map,
1159                // but has first value (some way do not change SSAId)
1160                // then pass to add new ssaIds before this point
1161                if (!lsit->second.hasValue(csit->second[0]))
1162                    continue; // otherwise, skip
1163            }
1164            else
1165                continue;
1166        }
[3872]1167        std::cout << "  entry: " << entry.first.regVar << ":" <<
1168                cxuint(entry.first.index) << ":";
1169        for (size_t v: entry.second)
1170            std::cout << " " << v;
1171        std::cout << std::endl;
1172        auto res = dest.insert(entry); // find
1173        if (res.second)
1174            continue; // added new
1175        VectorSet<size_t>& destEntry = res.first->second;
1176        // add new ways
1177        for (size_t ssaId: entry.second)
1178            destEntry.insertValue(ssaId);
1179        std::cout << "    :";
1180        for (size_t v: destEntry)
1181            std::cout << " " << v;
1182        std::cout << std::endl;
1183    }
[3877]1184    if (!loop) // do not if loop
1185        joinLastSSAIdMap(dest, laterRdata.lastSSAIdMap);
[3872]1186}
1187
1188
[3617]1189static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1190{
1191    // insert readBeforeWrite only if doesnt exists in destination
1192    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1193   
[3647]1194    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1195   
1196    for (const auto& entry: src.lastSSAIdMap)
1197    {
1198        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1199                cxuint(entry.first.index) << ":";
1200        for (size_t v: entry.second)
1201            std::cout << " " << v;
1202        std::cout << std::endl;
1203        auto res = dest.curSSAIdMap.insert(entry); // find
[3851]1204        VectorSet<size_t>& destEntry = res.first->second;
[3647]1205        if (!res.second)
1206        {
1207            // add new ways
1208            for (size_t ssaId: entry.second)
[3851]1209                destEntry.insertValue(ssaId);
[3647]1210        }
1211        auto rbwit = src.rbwSSAIdMap.find(entry.first);
[3868]1212        if (rbwit != src.rbwSSAIdMap.end() &&
1213            // remove only if not in src lastSSAIdMap
[3869]1214            std::find(entry.second.begin(), entry.second.end(),
1215                      rbwit->second) == entry.second.end())
[3851]1216            destEntry.eraseValue(rbwit->second);
[3647]1217        std::cout << "    :";
1218        for (size_t v: destEntry)
1219            std::cout << " " << v;
1220        std::cout << std::endl;
1221    }
[3617]1222}
1223
[3886]1224static bool reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
[3837]1225            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
[3882]1226            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
[3837]1227{
1228    SSAInfo& sinfo = ssaEntry.second;
1229    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1230    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1231    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1232    {
1233        auto& ssaIds = ssaIdsIt->second.ssaIds;
1234       
1235        if (ssaIds.size() >= 2)
1236        {
1237            // reduce to minimal ssaId from all calls
1238            std::sort(ssaIds.begin(), ssaIds.end());
1239            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1240            // insert SSA replaces
1241            size_t minSSAId = ssaIds.front();
1242            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1243                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1244            ssaId = minSSAId+1; // plus one
1245        }
1246        else if (ssaIds.size() == 1)
1247            ssaId = ssaIds.front()+1; // plus one
1248       
1249        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1250                ssaEntry.first.index << ": " << ssaId << std::endl;
1251        // replace smallest ssaId in routineMap lastSSAId entry
1252        // reduce SSAIds replaces
1253        for (size_t rblock: ssaIdsIt->second.routines)
1254            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
[3851]1255                            VectorSet<size_t>({ ssaId-1 });
[3837]1256        // finally remove from container (because obsolete)
1257        retSSAIdMap.erase(ssaIdsIt);
[3886]1258        return true;
[3837]1259    }
[3881]1260    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
[3882]1261    {
1262        // put before removing to revert for other ways after calls
1263        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1264        if (res.second)
1265            res.first->second = ssaIdsIt->second;
[3881]1266        // just remove, if some change without read before
1267        retSSAIdMap.erase(ssaIdsIt);
[3882]1268    }
[3886]1269    return false;
[3837]1270}
1271
[3873]1272static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1273                size_t prevSSAId)
[3837]1274{
1275    const SSAInfo& sinfo = ssaEntry.second;
[3879]1276    bool beforeFirstAccess = true;
[3837]1277    // put first SSAId before write
1278    if (sinfo.readBeforeWrite)
1279    {
1280        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
[3879]1281        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1282            // if already added
1283            beforeFirstAccess = false;
[3837]1284    }
1285   
1286    if (sinfo.ssaIdChange != 0)
1287    {
1288        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
[3839]1289        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
[3879]1290        // put last SSAId
[3837]1291        if (!res.second)
1292        {
[3879]1293            beforeFirstAccess = false;
[3837]1294            // if not inserted
[3852]1295            VectorSet<size_t>& ssaIds = res.first->second;
[3837]1296            if (sinfo.readBeforeWrite)
[3873]1297                ssaIds.eraseValue(prevSSAId);
[3852]1298            ssaIds.insertValue(sinfo.ssaIdLast);
[3837]1299        }
[3879]1300        // add readbefore if in previous returns if not added yet
[3880]1301        if (rdata.notFirstReturn && beforeFirstAccess)
[3879]1302            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
[3837]1303    }
[3877]1304    else
1305    {
1306        // insert read ssaid if no change
1307        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1308        if (!res.second)
1309        {
1310            VectorSet<size_t>& ssaIds = res.first->second;
1311            ssaIds.insertValue(prevSSAId);
1312        }
1313    }
[3837]1314}
1315
[3884]1316static void initializePrevRetSSAIds(const CodeBlock& cblock,
1317            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1318            const RetSSAIdMap& retSSAIdMap, const RoutineData& rdata,
1319            FlowStackEntry& entry)
[3837]1320{
1321    for (const auto& v: rdata.lastSSAIdMap)
1322    {
1323        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1324        if (!res.second)
1325            continue; // already added, do not change
1326        auto rfit = retSSAIdMap.find(v.first);
1327        if (rfit != retSSAIdMap.end())
1328            res.first->second = rfit->second;
[3884]1329       
1330        auto cbsit = cblock.ssaInfoMap.find(v.first);
1331        auto csit = curSSAIdMap.find(v.first);
1332        res.first->second.prevSSAId = cbsit!=cblock.ssaInfoMap.end() ?
1333                cbsit->second.ssaIdBefore : (csit!=curSSAIdMap.end() ? csit->second : 0);
[3837]1334    }
1335}
1336
[3884]1337static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
[3837]1338            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1339{
1340    // revert retSSAIdMap
1341    for (auto v: entry.prevRetSSAIdSets)
1342    {
1343        auto rfit = retSSAIdMap.find(v.first);
[3883]1344        if (rdata!=nullptr && rfit != retSSAIdMap.end())
[3837]1345        {
[3883]1346            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1347            for (size_t ssaId: rfit->second.ssaIds)
1348                ssaIds.eraseValue(ssaId);
[3837]1349        }
1350       
1351        if (!v.second.ssaIds.empty())
[3882]1352        {
1353            // just add if previously present
1354            if (rfit != retSSAIdMap.end())
1355                rfit->second = v.second;
1356            else
1357                retSSAIdMap.insert(v);
1358        }
[3837]1359        else // erase if empty
1360            retSSAIdMap.erase(v.first);
1361       
1362        if (rdata!=nullptr)
1363        {
[3851]1364            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
[3837]1365            for (size_t ssaId: v.second.ssaIds)
[3851]1366                ssaIds.insertValue(ssaId);
[3837]1367            if (v.second.ssaIds.empty())
[3869]1368            {
1369                auto cit = curSSAIdMap.find(v.first);
1370                ssaIds.push_back((cit!=curSSAIdMap.end() ? cit->second : 0)-1);
1371            }
[3837]1372           
1373            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1374                    v.first.regVar << ":" << v.first.index << ":";
1375            for (size_t v: ssaIds)
1376                std::cout << " " << v;
1377            std::cout << std::endl;
1378        }
[3884]1379        curSSAIdMap[v.first] = v.second.prevSSAId;
[3837]1380    }
1381}
1382
[3845]1383static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
[3837]1384            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1385{
[3851]1386    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
[3837]1387    std::cout << " pushentry " << entry.blockIndex << ": " <<
1388                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1389    for (size_t v: ssaIds)
1390        std::cout << " " << v;
1391    std::cout << std::endl;
1392   
[3852]1393    // if cblock with some children
1394    if (nextSSAId != curSSAId)
1395        ssaIds.eraseValue(nextSSAId-1);
1396   
[3837]1397    // push previous SSAId to lastSSAIdMap (later will be replaced)
1398    /*std::cout << "call back: " << nextSSAId << "," <<
1399            (curSSAId) << std::endl;*/
[3851]1400    ssaIds.insertValue(curSSAId-1);
[3837]1401   
1402    std::cout << " popentry " << entry.blockIndex << ": " <<
1403                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1404    for (size_t v: ssaIds)
1405        std::cout << " " << v;
1406    std::cout << std::endl;
1407}
1408
[3877]1409struct CLRX_INTERNAL LoopSSAIdMap
1410{
1411    LastSSAIdMap ssaIdMap;
1412    bool passed;
1413};
1414
[3865]1415static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
[3869]1416        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
[3877]1417        const std::unordered_set<size_t>& loopBlocks,
[3865]1418        const ResSecondPointsToCache& subroutToCache,
1419        SimpleCache<size_t, RoutineData>& subroutinesCache,
1420        const std::unordered_map<size_t, RoutineData>& routineMap, RoutineData& rdata,
[3878]1421        size_t routineBlock, bool noMainLoop = false)
[3865]1422{
1423    std::cout << "--------- createRoutineData ----------------\n";
1424    std::vector<bool> visited(codeBlocks.size(), false);
1425    std::deque<FlowStackEntry> flowStack;
[3869]1426    // last SSA ids map from returns
1427    RetSSAIdMap retSSAIdMap;
[3865]1428    flowStack.push_back({ routineBlock, 0 });
1429   
[3877]1430    std::unordered_map<size_t, LoopSSAIdMap> loopSSAIdMap;
1431   
[3865]1432    while (!flowStack.empty())
1433    {
1434        FlowStackEntry& entry = flowStack.back();
1435        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1436       
1437        if (entry.nextIndex == 0)
1438        {
1439            // process current block
[3875]1440            //if (/*cachedRdata != nullptr &&*/
1441                //visited[entry.blockIndex] && flowStack.size() > 1)
1442            const RoutineData* cachedRdata = nullptr;
[3877]1443           
1444            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
[3875]1445            if (routineBlock != entry.blockIndex)
[3865]1446            {
[3875]1447                cachedRdata = subroutinesCache.use(entry.blockIndex);
[3872]1448                if (cachedRdata == nullptr)
1449                {
[3873]1450                    // try in routine map
1451                    auto rit = routineMap.find(entry.blockIndex);
[3875]1452                    if (rit != routineMap.end())
1453                        cachedRdata = &rit->second;
[3873]1454                }
[3877]1455                if (!isLoop && cachedRdata == nullptr &&
1456                    subroutToCache.count(entry.blockIndex)!=0)
[3873]1457                {
[3872]1458                    RoutineData subrData;
1459                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
[3877]1460                    createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
[3878]1461                        subroutinesCache, routineMap, subrData, entry.blockIndex, true);
[3877]1462                    if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1463                    {   // leave from loop point
[3896]1464                        std::cout << "   loopfound " << entry.blockIndex << std::endl;
[3877]1465                        auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1466                        if (loopsit != loopSSAIdMap.end())
[3896]1467                        {
1468                            std::cout << "   loopssaIdMap: " <<
1469                                    entry.blockIndex << std::endl;
[3877]1470                            joinLastSSAIdMap(subrData.lastSSAIdMap,
1471                                    loopsit->second.ssaIdMap, subrData, true);
[3896]1472                        }
[3877]1473                    }
[3872]1474                    subroutinesCache.put(entry.blockIndex, subrData);
1475                   
1476                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1477                }
[3875]1478            }
1479           
1480            if (cachedRdata != nullptr)
1481            {
1482                std::cout << "use cached subr " << entry.blockIndex << std::endl;
[3865]1483                std::cout << "procret2: " << entry.blockIndex << std::endl;
[3873]1484                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
[3865]1485                std::cout << "procretend2" << std::endl;
1486                flowStack.pop_back();
1487                continue;
1488            }
1489            else if (!visited[entry.blockIndex])
1490            {
1491                std::cout << "proc: " << entry.blockIndex << std::endl;
1492                visited[entry.blockIndex] = true;
1493               
1494                for (const auto& ssaEntry: cblock.ssaInfoMap)
[3867]1495                    if (ssaEntry.first.regVar != nullptr)
[3869]1496                    {
[3867]1497                        // put data to routine data
[3873]1498                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
[3869]1499                       
1500                        if (ssaEntry.second.ssaIdChange!=0)
1501                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1502                    }
[3865]1503            }
[3878]1504            else if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
[3877]1505            {
1506                // handle loops
1507                std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1508                auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1509                if (loopsit != loopSSAIdMap.end())
1510                {
1511                    if (!loopsit->second.passed)
1512                        // still in loop join ssaid map
1513                        joinLastSSAIdMap(loopsit->second.ssaIdMap, rdata.curSSAIdMap);
1514                }
1515                else // insert new
1516                    loopSSAIdMap.insert({ entry.blockIndex,
1517                                { rdata.curSSAIdMap, false } });
1518                flowStack.pop_back();
1519                continue;
1520            }
[3872]1521            else
[3877]1522            {
[3865]1523                flowStack.pop_back();
1524                continue;
1525            }
1526        }
1527       
1528        // join and skip calls
1529        for (; entry.nextIndex < cblock.nexts.size() &&
1530                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1531            joinRoutineData(rdata, routineMap.find(
1532                            cblock.nexts[entry.nextIndex].block)->second);
1533       
1534        if (entry.nextIndex < cblock.nexts.size())
1535        {
1536            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1537            entry.nextIndex++;
1538        }
1539        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1540                // if have any call then go to next block
1541                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1542                 !cblock.haveReturn && !cblock.haveEnd)
1543        {
[3869]1544            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1545            {
1546                for (const NextBlock& next: cblock.nexts)
1547                    if (next.isCall)
1548                    {
1549                        //std::cout << "joincall:"<< next.block << std::endl;
1550                        auto it = routineMap.find(next.block); // must find
[3884]1551                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1552                                    it->second, entry);
[3869]1553                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1554                    }
1555            }
[3865]1556            flowStack.push_back({ entry.blockIndex+1, 0 });
1557            entry.nextIndex++;
1558        }
1559        else
1560        {
1561            if (cblock.haveReturn)
1562            {
1563                std::cout << "procret: " << entry.blockIndex << std::endl;
1564                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1565                std::cout << "procretend" << std::endl;
[3880]1566                rdata.notFirstReturn = true;
[3865]1567            }
1568           
[3869]1569            // revert retSSAIdMap
1570            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
1571            //
1572           
[3865]1573            for (const auto& ssaEntry: cblock.ssaInfoMap)
1574            {
1575                if (ssaEntry.first.regVar == nullptr)
1576                    continue;
1577                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1578                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1579                    ssaEntry.second.ssaIdLast+1 : curSSAId;
[3869]1580                curSSAIdMap[ssaEntry.first] = curSSAId;
[3865]1581               
1582                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1583                            ":" << ssaEntry.first.index << ": " <<
1584                            nextSSAId << ", " << curSSAId << std::endl;
1585               
1586                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1587            }
1588           
[3877]1589            auto loopsit = loopSSAIdMap.find(entry.blockIndex);
[3872]1590            if (flowStack.size() > 1 && subroutToCache.count(entry.blockIndex)!=0)
1591            { //put to cache
1592                RoutineData subrData;
1593                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
[3877]1594                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
[3878]1595                        subroutinesCache, routineMap, subrData, entry.blockIndex, true);
[3877]1596                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1597                {   // leave from loop point
[3896]1598                    std::cout << "   loopfound: " << entry.blockIndex << std::endl;
[3877]1599                    if (loopsit != loopSSAIdMap.end())
[3896]1600                    {
1601                        std::cout << "   loopssaIdMap: " << entry.blockIndex << std::endl;
[3877]1602                        joinLastSSAIdMap(subrData.lastSSAIdMap, loopsit->second.ssaIdMap,
1603                                         subrData, true);
[3896]1604                    }
[3877]1605                }
[3872]1606                subroutinesCache.put(entry.blockIndex, subrData);
1607            }
[3896]1608            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end() &&
1609                    loopsit != loopSSAIdMap.end())
[3877]1610                // mark that loop has passed fully
1611                loopsit->second.passed = true;
[3872]1612           
[3865]1613            flowStack.pop_back();
1614        }
1615    }
1616    std::cout << "--------- createRoutineData end ------------\n";
1617}
1618
1619
[2963]1620void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1621{
[3592]1622    if (codeBlocks.empty())
1623        return;
[2963]1624    usageHandler.rewind();
1625    auto cbit = codeBlocks.begin();
1626    AsmRegVarUsage rvu;
1627    if (!usageHandler.hasNext())
1628        return; // do nothing if no regusages
1629    rvu = usageHandler.nextUsage();
1630   
[3000]1631    cxuint regRanges[MAX_REGTYPES_NUM*2];
[3001]1632    cxuint realRegsCount[MAX_REGTYPES_NUM];
1633    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
[3000]1634    size_t regTypesNum;
1635    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1636   
[2963]1637    while (true)
1638    {
1639        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
[3042]1640        {
1641            cbit->usagePos = usageHandler.getReadPos();
[2963]1642            ++cbit;
[3042]1643        }
[2963]1644        if (cbit == codeBlocks.end())
1645            break;
1646        // skip rvu's before codeblock
1647        while (rvu.offset < cbit->start && usageHandler.hasNext())
1648            rvu = usageHandler.nextUsage();
1649        if (rvu.offset < cbit->start)
1650            break;
1651       
[2981]1652        cbit->usagePos = usageHandler.getReadPos();
[3042]1653        while (rvu.offset < cbit->end)
[3396]1654        {
1655            // process rvu
[3011]1656            // only if regVar
1657            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1658            {
1659                auto res = cbit->ssaInfoMap.insert(
1660                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
1661               
1662                SSAInfo& sinfo = res.first->second;
1663                if (res.second)
1664                    sinfo.firstPos = rvu.offset;
[3595]1665                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
[3597]1666                    // if first write RVU instead read RVU
[3595]1667                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
[3011]1668                    sinfo.readBeforeWrite = true;
[3597]1669                /* change SSA id only for write-only regvars -
1670                 *   read-write place can not have two different variables */
[3593]1671                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
[3011]1672                    sinfo.ssaIdChange++;
[3589]1673                if (rvu.regVar==nullptr)
1674                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
1675                            sinfo.ssaId = sinfo.ssaIdLast = 0;
[2963]1676            }
1677            // get next rvusage
1678            if (!usageHandler.hasNext())
1679                break;
1680            rvu = usageHandler.nextUsage();
1681        }
[3040]1682        ++cbit;
[2963]1683    }
[2986]1684   
[3848]1685    size_t rbwCount = 0;
1686    size_t wrCount = 0;
1687   
[3865]1688    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
1689   
[3616]1690    std::deque<CallStackEntry> callStack;
[2967]1691    std::deque<FlowStackEntry> flowStack;
[2966]1692    // total SSA count
1693    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
[3615]1694    // last SSA ids map from returns
[3643]1695    RetSSAIdMap retSSAIdMap;
[2964]1696    // last SSA ids in current way in code flow
[3615]1697    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
[3582]1698    // routine map - routine datas map, value - last SSA ids map
1699    std::unordered_map<size_t, RoutineData> routineMap;
[3848]1700    // key - current res first key, value - previous first key and its flowStack pos
1701    PrevWaysIndexMap prevWaysIndexMap;
1702    // to track ways last block indices pair: block index, flowStackPos)
[3850]1703    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
[3867]1704    std::vector<bool> isRoutineGen(codeBlocks.size(), false);
[3582]1705   
[3848]1706    std::vector<bool> waysToCache(codeBlocks.size(), false);
[3877]1707    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
[3865]1708    // subroutToCache - true if given block begin subroutine to cache
[3855]1709    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
[2999]1710    std::vector<bool> visited(codeBlocks.size(), false);
[2982]1711    flowStack.push_back({ 0, 0 });
[3877]1712    flowStackBlocks[0] = true;
1713    std::unordered_set<size_t> loopBlocks;
[2982]1714   
[2963]1715    while (!flowStack.empty())
1716    {
[2967]1717        FlowStackEntry& entry = flowStack.back();
[2966]1718        CodeBlock& cblock = codeBlocks[entry.blockIndex];
[2963]1719       
1720        if (entry.nextIndex == 0)
[3396]1721        {
1722            // process current block
[2963]1723            if (!visited[entry.blockIndex])
1724            {
[3645]1725                std::cout << "proc: " << entry.blockIndex << std::endl;
[2963]1726                visited[entry.blockIndex] = true;
[2991]1727               
[2966]1728                for (auto& ssaEntry: cblock.ssaInfoMap)
1729                {
[3616]1730                    SSAInfo& sinfo = ssaEntry.second;
[3589]1731                    if (ssaEntry.first.regVar==nullptr)
[3593]1732                    {
[3651]1733                        // TODO - pass registers through SSA marking and resolving
[3616]1734                        sinfo.ssaIdChange = 0; // zeroing SSA changes
[3589]1735                        continue; // no change for registers
[3593]1736                    }
[3589]1737                   
[3886]1738                    bool reducedSSAId = reduceSSAIds(curSSAIdMap, retSSAIdMap,
1739                                routineMap, ssaReplacesMap, entry, ssaEntry);
[3622]1740                   
[3615]1741                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1742                   
[2966]1743                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
[3596]1744                    if (totalSSACount == 0)
[3396]1745                    {
[3589]1746                        // first read before write at all, need change totalcount, ssaId
1747                        ssaId++;
1748                        totalSSACount++;
[3590]1749                    }
[3615]1750                   
[3616]1751                    sinfo.ssaId = totalSSACount;
1752                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
1753                    sinfo.ssaIdBefore = ssaId-1;
[3587]1754                   
[3616]1755                    totalSSACount += sinfo.ssaIdChange;
1756                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
[3043]1757                    //totalSSACount = std::max(totalSSACount, ssaId);
[3886]1758                    if (!reducedSSAId || sinfo.ssaIdChange!=0)
1759                        ssaId = totalSSACount;
[3616]1760                   
[3870]1761                    /*if (!callStack.empty())
[3616]1762                        // put data to routine data
[3837]1763                        updateRoutineData(routineMap.find(
[3870]1764                            callStack.back().routineBlock)->second, ssaEntry);*/
[3848]1765                       
1766                    // count read before writes (for cache weight)
1767                    if (sinfo.readBeforeWrite)
1768                        rbwCount++;
1769                    if (sinfo.ssaIdChange!=0)
1770                        wrCount++;
[2966]1771                }
[2963]1772            }
1773            else
[3396]1774            {
[3864]1775                // TODO: correctly join this path with routine data
1776                // currently does not include further substitutions in visited path
[3870]1777                /*RoutineData* rdata = nullptr;
[3863]1778                if (!callStack.empty())
1779                    rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1780               
1781                if (!entry.isCall && rdata != nullptr)
1782                {
1783                    std::cout << "procret2: " << entry.blockIndex << std::endl;
1784                    joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1785                    std::cout << "procretend2" << std::endl;
[3870]1786                }*/
[3863]1787               
1788                // handle caching for res second point
[3855]1789                cblocksToCache.increase(entry.blockIndex);
1790                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1791                            cblocksToCache.count(entry.blockIndex) << std::endl;
[2987]1792                // back, already visited
[3877]1793                flowStackBlocks[entry.blockIndex] = false;
[2967]1794                flowStack.pop_back();
[3848]1795               
1796                size_t curWayBIndex = flowStack.back().blockIndex;
[3850]1797                if (lastCommonCacheWayPoint.first != SIZE_MAX)
[3848]1798                {
[3850]1799                    // mark point of way to cache (res first point)
1800                    waysToCache[lastCommonCacheWayPoint.first] = true;
1801                    std::cout << "mark to pfcache " <<
1802                            lastCommonCacheWayPoint.first << ", " <<
1803                            curWayBIndex << std::endl;
1804                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
[3848]1805                }
[3850]1806                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
1807                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
[2963]1808                continue;
1809            }
1810        }
[2986]1811       
[3582]1812        if (!callStack.empty() &&
[3616]1813            entry.blockIndex == callStack.back().callBlock &&
1814            entry.nextIndex-1 == callStack.back().callNextIndex)
[3610]1815        {
[3645]1816            std::cout << " ret: " << entry.blockIndex << std::endl;
[3870]1817            RoutineData& prevRdata =
[3643]1818                    routineMap.find(callStack.back().routineBlock)->second;
[3867]1819            if (!isRoutineGen[callStack.back().routineBlock])
1820            {
[3870]1821                //RoutineData myRoutineData;
[3877]1822                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks,
1823                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
1824                            callStack.back().routineBlock);
[3870]1825                //prevRdata.compare(myRoutineData);
[3867]1826                isRoutineGen[callStack.back().routineBlock] = true;
1827            }
[3616]1828            callStack.pop_back(); // just return from call
[3643]1829            if (!callStack.empty())
[3616]1830                // put to parent routine
1831                joinRoutineData(routineMap.find(callStack.back().routineBlock)->second,
[3643]1832                                    prevRdata);
[3610]1833        }
[3582]1834       
[2963]1835        if (entry.nextIndex < cblock.nexts.size())
1836        {
[3863]1837            bool isCall = false;
[3877]1838            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
[2986]1839            if (cblock.nexts[entry.nextIndex].isCall)
[3610]1840            {
[3645]1841                std::cout << " call: " << entry.blockIndex << std::endl;
[3877]1842                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
1843                routineMap.insert({ nextBlock, { } });
[3863]1844                isCall = true;
[3610]1845            }
[2986]1846           
[3877]1847            flowStack.push_back({ nextBlock, 0, isCall });
1848            if (flowStackBlocks[nextBlock])
1849                loopBlocks.insert(nextBlock);
1850            flowStackBlocks[nextBlock] = true;
[2963]1851            entry.nextIndex++;
1852        }
[2986]1853        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1854                // if have any call then go to next block
1855                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1856                 !cblock.haveReturn && !cblock.haveEnd)
[2963]1857        {
[3584]1858            if (entry.nextIndex!=0) // if back from calls (just return from calls)
[3582]1859            {
[3616]1860                for (const NextBlock& next: cblock.nexts)
[3583]1861                    if (next.isCall)
[3582]1862                    {
[3620]1863                        //std::cout << "joincall:"<< next.block << std::endl;
[3582]1864                        auto it = routineMap.find(next.block); // must find
[3884]1865                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1866                                    it->second, entry);
[3643]1867                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
[3616]1868                    }
[3582]1869            }
[3863]1870            flowStack.push_back({ entry.blockIndex+1, 0, false });
[3877]1871            if (flowStackBlocks[entry.blockIndex+1])
1872                loopBlocks.insert(entry.blockIndex+1);
1873            flowStackBlocks[entry.blockIndex+1] = true;
[2963]1874            entry.nextIndex++;
1875        }
1876        else // back
[3396]1877        {
[3646]1878            RoutineData* rdata = nullptr;
1879            if (!callStack.empty())
1880                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1881           
[3870]1882            /*if (cblock.haveReturn && rdata != nullptr)
[3646]1883            {
1884                std::cout << "procret: " << entry.blockIndex << std::endl;
1885                joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1886                std::cout << "procretend" << std::endl;
[3870]1887            }*/
[3646]1888           
[3645]1889            // revert retSSAIdMap
[3837]1890            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
[3645]1891            //
[3618]1892           
[2966]1893            for (const auto& ssaEntry: cblock.ssaInfoMap)
[3043]1894            {
[3620]1895                if (ssaEntry.first.regVar == nullptr)
1896                    continue;
1897               
[3618]1898                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
1899                const size_t nextSSAId = curSSAId;
[3866]1900                curSSAId = ssaEntry.second.ssaIdBefore+1;
[3645]1901               
1902                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1903                            ":" << ssaEntry.first.index << ": " <<
1904                            nextSSAId << ", " << curSSAId << std::endl;
1905               
[3870]1906                /*if (rdata!=nullptr)
[3837]1907                    updateRoutineCurSSAIdMap(rdata, ssaEntry, entry, curSSAId, nextSSAId);
[3870]1908                */
[3043]1909            }
[3617]1910           
[3647]1911            std::cout << "pop: " << entry.blockIndex << std::endl;
[3877]1912            flowStackBlocks[entry.blockIndex] = false;
[2967]1913            flowStack.pop_back();
[3850]1914            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
1915                    lastCommonCacheWayPoint.second >= flowStack.size())
1916            {
1917                lastCommonCacheWayPoint =
1918                        { flowStack.back().blockIndex, flowStack.size()-1 };
1919                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
1920            }
[3877]1921           
[2964]1922        }
[2963]1923    }
[3652]1924   
1925    /**********
1926     * after that, we find points to resolve conflicts
1927     **********/
1928    flowStack.clear();
[3848]1929    std::deque<FlowStackEntry2> flowStack2;
1930   
[3652]1931    std::fill(visited.begin(), visited.end(), false);
[3848]1932    flowStack2.push_back({ 0, 0 });
[3652]1933   
[3848]1934    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
[3846]1935    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
[3845]1936   
[3848]1937    while (!flowStack2.empty())
[3652]1938    {
[3848]1939        FlowStackEntry2& entry = flowStack2.back();
[3652]1940        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1941       
1942        if (entry.nextIndex == 0)
1943        {
1944            // process current block
1945            if (!visited[entry.blockIndex])
1946                visited[entry.blockIndex] = true;
1947            else
1948            {
[3848]1949                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
1950                            prevWaysIndexMap, waysToCache, cblocksToCache,
1951                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
[3652]1952               
1953                // join routine data
1954                /*auto rit = routineMap.find(entry.blockIndex);
1955                if (rit != routineMap.end())
1956                    // just join with current routine data
1957                    joinRoutineData(routineMap.find(
1958                            callStack.back().routineBlock)->second, rit->second);*/
1959                /*if (!callStack.empty())
[3848]1960                    collectSSAIdsForCall(flowStack2, callStack, visited,
[3652]1961                            routineMap, codeBlocks);*/
1962                // back, already visited
[3848]1963                flowStack2.pop_back();
[3652]1964                continue;
1965            }
1966        }
1967       
1968        if (entry.nextIndex < cblock.nexts.size())
1969        {
[3848]1970            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
[3652]1971            entry.nextIndex++;
1972        }
1973        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1974                // if have any call then go to next block
1975                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1976                 !cblock.haveReturn && !cblock.haveEnd)
1977        {
[3848]1978            flowStack2.push_back({ entry.blockIndex+1, 0 });
[3652]1979            entry.nextIndex++;
1980        }
1981        else // back
[3857]1982        {
1983            if (cblocksToCache.count(entry.blockIndex)==2 &&
1984                !resSecondPointsCache.hasKey(entry.blockIndex))
1985                // add to cache
1986                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1987                            entry.blockIndex);
[3848]1988            flowStack2.pop_back();
[3857]1989        }
[3652]1990    }
[3038]1991}
[3601]1992
[3038]1993void AsmRegAllocator::applySSAReplaces()
1994{
[2977]1995    /* prepare SSA id replaces */
[2979]1996    struct MinSSAGraphNode
1997    {
1998        size_t minSSAId;
1999        bool visited;
2000        std::unordered_set<size_t> nexts;
2001        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
2002    };
2003    struct MinSSAGraphStackEntry
2004    {
2005        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
2006        std::unordered_set<size_t>::const_iterator nextIt;
2007        size_t minSSAId;
2008    };
2009   
[3039]2010    for (auto& entry: ssaReplacesMap)
[2977]2011    {
2012        std::vector<SSAReplace>& replaces = entry.second;
2013        std::sort(replaces.begin(), replaces.end());
[2978]2014        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
2015        std::vector<SSAReplace> newReplaces;
2016       
[2979]2017        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
[2978]2018       
[2977]2019        auto it = replaces.begin();
2020        while (it != replaces.end())
2021        {
[2979]2022            auto itEnd = std::upper_bound(it, replaces.end(),
[2993]2023                            std::make_pair(it->first, size_t(SIZE_MAX)));
[2978]2024            {
[2979]2025                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2026                node.minSSAId = std::min(node.minSSAId, it->second);
[3580]2027                for (auto it2 = it; it2 != itEnd; ++it2)
[2979]2028                    node.nexts.insert(it->second);
2029            }
[3580]2030            it = itEnd;
[2977]2031        }
[2979]2032        // propagate min value
2033        std::stack<MinSSAGraphStackEntry> minSSAStack;
[2980]2034        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
[3580]2035                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
[2978]2036        {
[2980]2037            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2038            // traverse with minimalize SSA id
2039            while (!minSSAStack.empty())
[2979]2040            {
[2980]2041                MinSSAGraphStackEntry& entry = minSSAStack.top();
2042                MinSSAGraphNode& node = entry.nodeIt->second;
2043                bool toPop = false;
2044                if (entry.nextIt == node.nexts.begin())
[2979]2045                {
[2980]2046                    if (!node.visited)
2047                        node.visited = true;
2048                    else
2049                        toPop = true;
[2979]2050                }
[2980]2051                if (!toPop && entry.nextIt != node.nexts.end())
[2979]2052                {
[2980]2053                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2054                    if (nodeIt != ssaGraphNodes.end())
2055                    {
2056                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2057                                nodeIt->second.minSSAId });
2058                    }
2059                    ++entry.nextIt;
[2979]2060                }
[2980]2061                else
2062                {
2063                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2064                    minSSAStack.pop();
2065                    if (!minSSAStack.empty())
2066                    {
2067                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2068                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2069                    }
2070                }
[2979]2071            }
[2980]2072            // skip visited nodes
2073            while (ssaGraphNodeIt != ssaGraphNodes.end())
2074                if (!ssaGraphNodeIt->second.visited)
2075                    break;
[2978]2076        }
2077       
[2979]2078        for (const auto& entry: ssaGraphNodes)
2079            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2080       
[2978]2081        std::sort(newReplaces.begin(), newReplaces.end());
2082        entry.second = newReplaces;
[2977]2083    }
2084   
2085    /* apply SSA id replaces */
2086    for (CodeBlock& cblock: codeBlocks)
2087        for (auto& ssaEntry: cblock.ssaInfoMap)
2088        {
[3039]2089            auto it = ssaReplacesMap.find(ssaEntry.first);
2090            if (it == ssaReplacesMap.end())
[2977]2091                continue;
2092            SSAInfo& sinfo = ssaEntry.second;
2093            std::vector<SSAReplace>& replaces = it->second;
2094            if (sinfo.readBeforeWrite)
2095            {
2096                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2097                                 ssaEntry.second.ssaIdBefore);
2098                if (rit != replaces.end())
2099                    sinfo.ssaIdBefore = rit->second; // replace
2100            }
2101            if (sinfo.ssaIdFirst != SIZE_MAX)
2102            {
2103                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2104                                 ssaEntry.second.ssaIdFirst);
2105                if (rit != replaces.end())
2106                    sinfo.ssaIdFirst = rit->second; // replace
2107            }
2108            if (sinfo.ssaIdLast != SIZE_MAX)
2109            {
2110                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2111                                 ssaEntry.second.ssaIdLast);
2112                if (rit != replaces.end())
2113                    sinfo.ssaIdLast = rit->second; // replace
2114            }
2115        }
[2963]2116}
2117
[2996]2118struct Liveness
2119{
[3008]2120    std::map<size_t, size_t> l;
[2996]2121   
2122    Liveness() { }
2123   
[3013]2124    void clear()
2125    { l.clear(); }
2126   
[2996]2127    void expand(size_t k)
2128    {
2129        if (l.empty())
[3008]2130            l.insert(std::make_pair(k, k+1));
[2996]2131        else
[3008]2132        {
2133            auto it = l.end();
2134            --it;
2135            it->second = k+1;
2136        }
[2996]2137    }
2138    void newRegion(size_t k)
[3004]2139    {
[3010]2140        if (l.empty())
[3008]2141            l.insert(std::make_pair(k, k));
[3010]2142        else
2143        {
2144            auto it = l.end();
2145            --it;
2146            if (it->first != k && it->second != k)
2147                l.insert(std::make_pair(k, k));
2148        }
[3004]2149    }
[2996]2150   
[3010]2151    void insert(size_t k, size_t k2)
[3008]2152    {
[3010]2153        auto it1 = l.lower_bound(k);
2154        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2155            --it1;
2156        if (it1->second < k)
2157            ++it1;
2158        auto it2 = l.lower_bound(k2);
2159        if (it1!=it2)
2160        {
2161            k = std::min(k, it1->first);
2162            k2 = std::max(k2, (--it2)->second);
2163            l.erase(it1, it2);
2164        }
2165        l.insert(std::make_pair(k, k2));
[3008]2166    }
2167   
[2996]2168    bool contain(size_t t) const
2169    {
[3008]2170        auto it = l.lower_bound(t);
[2996]2171        if (it==l.begin() && it->first>t)
2172            return false;
2173        if (it==l.end() || it->first>t)
2174            --it;
2175        return it->first<=t && t<it->second;
2176    }
2177   
2178    bool common(const Liveness& b) const
2179    {
[3008]2180        auto i = l.begin();
2181        auto j = b.l.begin();
2182        for (; i != l.end() && j != b.l.end();)
[2996]2183        {
[3008]2184            if (i->first==i->second)
[2996]2185            {
[3008]2186                ++i;
[2996]2187                continue;
2188            }
[3008]2189            if (j->first==j->second)
[2996]2190            {
[3008]2191                ++j;
[2996]2192                continue;
2193            }
[3008]2194            if (i->first<j->first)
[2996]2195            {
[3008]2196                if (i->second > j->first)
[2996]2197                    return true; // common place
[3008]2198                ++i;
[2996]2199            }
2200            else
2201            {
[3008]2202                if (i->first < j->second)
[2996]2203                    return true; // common place
[3008]2204                ++j;
[2996]2205            }
2206        }
2207        return false;
2208    }
2209};
2210
[3003]2211typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2212
[3011]2213static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2214            const AsmSingleVReg& svreg)
2215{
2216    cxuint regType; // regtype
2217    if (svreg.regVar!=nullptr)
2218        regType = svreg.regVar->type;
2219    else
2220        for (regType = 0; regType < regTypesNum; regType++)
2221            if (svreg.index >= regRanges[regType<<1] &&
2222                svreg.index < regRanges[(regType<<1)+1])
2223                break;
2224    return regType;
2225}
2226
[3003]2227static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
[3005]2228        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
[3003]2229        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2230{
2231    size_t ssaId;
[3589]2232    if (svreg.regVar==nullptr)
2233        ssaId = 0;
2234    else if (ssaIdIdx==0)
[3003]2235        ssaId = ssaInfo.ssaIdBefore;
2236    else if (ssaIdIdx==1)
2237        ssaId = ssaInfo.ssaIdFirst;
2238    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2239        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2240    else // last
2241        ssaId = ssaInfo.ssaIdLast;
2242   
[3011]2243    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2244    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2245    const std::vector<size_t>& ssaIdIndices =
2246                vregIndexMap.find(svreg)->second;
2247    return livenesses[regType][ssaIdIndices[ssaId]];
[3003]2248}
2249
[3006]2250typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
2251
[3844]2252struct CLRX_INTERNAL VRegLastPos
[3004]2253{
2254    size_t ssaId; // last SSA id
[3006]2255    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
[3004]2256};
2257
[3011]2258/* TODO: add handling calls
[3014]2259 * handle many start points in this code (for example many kernel's in same code)
[3016]2260 * replace sets by vector, and sort and remove same values on demand
[3007]2261 */
2262
[3006]2263typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2264
[3008]2265static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
2266        const std::vector<CodeBlock>& codeBlocks,
[3018]2267        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
[3011]2268        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2269        size_t regTypesNum, const cxuint* regRanges)
[3006]2270{
2271    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2272    for (const auto& entry: cblock.ssaInfoMap)
2273        if (entry.second.readBeforeWrite)
[3397]2274        {
2275            // find last
[3006]2276            auto lvrit = lastVRegMap.find(entry.first);
2277            if (lvrit == lastVRegMap.end())
2278                continue; // not found
2279            const VRegLastPos& lastPos = lvrit->second;
2280            FlowStackCIter flit = lastPos.blockChain.back();
[3011]2281            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
[3008]2282            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2283            const std::vector<size_t>& ssaIdIndices =
2284                        vregIndexMap.find(entry.first)->second;
2285            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
[3006]2286            FlowStackCIter flitEnd = flowStack.end();
2287            --flitEnd; // before last element
[3010]2288            // insert live time to last seen position
2289            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2290            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2291            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2292                    toLiveCvt + lastBlk.end);
2293            for (++flit; flit != flitEnd; ++flit)
[3008]2294            {
2295                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2296                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2297                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2298            }
[3006]2299        }
2300}
2301
[3009]2302static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
2303        const std::vector<CodeBlock>& codeBlocks,
[3018]2304        const Array<size_t>& codeBlockLiveTimes,
[3011]2305        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2306        size_t regTypesNum, const cxuint* regRanges)
[3009]2307{
2308    auto flitStart = flowStack.end();
2309    --flitStart;
2310    size_t curBlock = flitStart->blockIndex;
2311    // find step in way
2312    while (flitStart->blockIndex != curBlock) --flitStart;
2313    auto flitEnd = flowStack.end();
2314    --flitEnd;
2315    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2316   
2317    // collect var to check
2318    size_t flowPos = 0;
2319    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2320    {
2321        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2322        for (const auto& entry: cblock.ssaInfoMap)
2323        {
2324            const SSAInfo& sinfo = entry.second;
2325            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2326                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2327            varMap[entry.first] = { lastSSAId, flowPos };
2328        }
2329    }
2330    // find connections
2331    flowPos = 0;
2332    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2333    {
2334        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2335        for (const auto& entry: cblock.ssaInfoMap)
2336        {
2337            const SSAInfo& sinfo = entry.second;
2338            auto varMapIt = varMap.find(entry.first);
2339            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2340                flowPos > varMapIt->second.second ||
2341                sinfo.ssaIdBefore != varMapIt->second.first)
2342                continue;
2343            // just connect
2344           
[3011]2345            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
[3009]2346            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2347            const std::vector<size_t>& ssaIdIndices =
2348                        vregIndexMap.find(entry.first)->second;
2349            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2350           
[3010]2351            if (flowPos == varMapIt->second.second)
[3396]2352            {
2353                // fill whole loop
[3010]2354                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2355                {
2356                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2357                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2358                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2359                }
2360                continue;
2361            }
2362           
[3009]2363            size_t flowPos2 = 0;
2364            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2365            {
2366                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2367                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2368                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2369            }
[3010]2370            // insert liveness for last block in loop of last SSAId (prev round)
2371            auto flit2 = flitStart + flowPos;
2372            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2373            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2374            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2375                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2376            // insert liveness for first block in loop of last SSAId
2377            flit2 = flitStart + (varMapIt->second.second+1);
2378            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2379            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2380            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2381                    toLiveCvt + lastBlk.end);
2382            // fill up loop end
2383            for (++flit2; flit2 != flitEnd; ++flit2)
[3009]2384            {
2385                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2386                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2387                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2388            }
2389        }
2390    }
2391}
2392
[3014]2393struct LiveBlock
2394{
2395    size_t start;
2396    size_t end;
2397    size_t vidx;
2398   
2399    bool operator==(const LiveBlock& b) const
2400    { return start==b.start && end==b.end && vidx==b.vidx; }
2401   
2402    bool operator<(const LiveBlock& b) const
2403    { return start<b.start || (start==b.start &&
2404            (end<b.end || (end==b.end && vidx<b.vidx))); }
2405};
[3013]2406
[3015]2407typedef AsmRegAllocator::LinearDep LinearDep;
[3017]2408typedef AsmRegAllocator::EqualToDep EqualToDep;
2409typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2410typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
[3015]2411
2412static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
[3017]2413            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2414            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
[3015]2415            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2416            size_t regTypesNum, const cxuint* regRanges)
2417{
2418    // add linear deps
2419    cxuint count = ldeps[0];
2420    cxuint pos = 1;
2421    cxbyte rvuAdded = 0;
2422    for (cxuint i = 0; i < count; i++)
2423    {
2424        cxuint ccount = ldeps[pos++];
2425        std::vector<size_t> vidxes;
2426        cxuint regType = UINT_MAX;
2427        cxbyte align = rvus[ldeps[pos]].align;
2428        for (cxuint j = 0; j < ccount; j++)
2429        {
2430            rvuAdded |= 1U<<ldeps[pos];
2431            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2432            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2433            {
2434                AsmSingleVReg svreg = {rvu.regVar, k};
2435                auto sit = ssaIdIdxMap.find(svreg);
2436                if (regType==UINT_MAX)
2437                    regType = getRegType(regTypesNum, regRanges, svreg);
2438                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2439                const std::vector<size_t>& ssaIdIndices =
2440                            vregIndexMap.find(svreg)->second;
2441                // push variable index
2442                vidxes.push_back(ssaIdIndices[sit->second]);
2443            }
2444        }
[3017]2445        ldepsOut[regType][vidxes[0]].align = align;
2446        for (size_t k = 1; k < vidxes.size(); k++)
2447        {
2448            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2449            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2450        }
[3015]2451    }
2452    // add single arg linear dependencies
2453    for (cxuint i = 0; i < rvusNum; i++)
2454        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2455        {
2456            const AsmRegVarUsage& rvu = rvus[i];
2457            std::vector<size_t> vidxes;
2458            cxuint regType = UINT_MAX;
2459            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2460            {
2461                AsmSingleVReg svreg = {rvu.regVar, k};
2462                auto sit = ssaIdIdxMap.find(svreg);
2463                if (regType==UINT_MAX)
2464                    regType = getRegType(regTypesNum, regRanges, svreg);
2465                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2466                const std::vector<size_t>& ssaIdIndices =
2467                            vregIndexMap.find(svreg)->second;
2468                // push variable index
2469                vidxes.push_back(ssaIdIndices[sit->second]);
2470            }
[3017]2471            for (size_t j = 1; j < vidxes.size(); j++)
2472            {
2473                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2474                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2475            }
[3015]2476        }
2477       
2478    /* equalTo dependencies */
2479    count = edeps[0];
2480    pos = 1;
2481    for (cxuint i = 0; i < count; i++)
2482    {
2483        cxuint ccount = edeps[pos++];
2484        std::vector<size_t> vidxes;
2485        cxuint regType = UINT_MAX;
2486        for (cxuint j = 0; j < ccount; j++)
2487        {
2488            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2489            // only one register should be set for equalTo depencencies
2490            // other registers in range will be resolved by linear dependencies
2491            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2492            auto sit = ssaIdIdxMap.find(svreg);
2493            if (regType==UINT_MAX)
2494                regType = getRegType(regTypesNum, regRanges, svreg);
2495            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2496            const std::vector<size_t>& ssaIdIndices =
2497                        vregIndexMap.find(svreg)->second;
2498            // push variable index
2499            vidxes.push_back(ssaIdIndices[sit->second]);
2500        }
[3017]2501        for (size_t j = 1; j < vidxes.size(); j++)
2502        {
2503            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2504            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2505        }
[3015]2506    }
2507}
2508
[3020]2509typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2510
2511struct EqualStackEntry
2512{
2513    EqualToDepMapCIter etoDepIt;
2514    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2515};
2516
[2997]2517void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
[2980]2518{
[2997]2519    // construct var index maps
[3000]2520    size_t graphVregsCounts[MAX_REGTYPES_NUM];
[3026]2521    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
[3011]2522    cxuint regRanges[MAX_REGTYPES_NUM*2];
2523    size_t regTypesNum;
2524    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2525   
[2997]2526    for (const CodeBlock& cblock: codeBlocks)
2527        for (const auto& entry: cblock.ssaInfoMap)
2528        {
[3011]2529            const SSAInfo& sinfo = entry.second;
2530            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2531            VarIndexMap& vregIndices = vregIndexMaps[regType];
2532            size_t& graphVregsCount = graphVregsCounts[regType];
[2997]2533            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2534            size_t ssaIdCount = 0;
2535            if (sinfo.readBeforeWrite)
2536                ssaIdCount = sinfo.ssaIdBefore+1;
2537            if (sinfo.ssaIdChange!=0)
2538            {
2539                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2540                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2541            }
2542            if (ssaIdIndices.size() < ssaIdCount)
2543                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2544           
2545            if (sinfo.readBeforeWrite)
2546                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2547            if (sinfo.ssaIdChange!=0)
[3396]2548            {
2549                // fill up ssaIdIndices (with graph Ids)
[2997]2550                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2551                for (size_t ssaId = sinfo.ssaId+1;
2552                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2553                    ssaIdIndices[ssaId] = graphVregsCount++;
2554                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2555            }
2556        }
2557   
2558    // construct vreg liveness
[2995]2559    std::deque<FlowStackEntry> flowStack;
[2999]2560    std::vector<bool> visited(codeBlocks.size(), false);
[3005]2561    // hold last vreg ssaId and position
[3006]2562    LastVRegMap lastVRegMap;
[3005]2563    // hold start live time position for every code block
[3018]2564    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
[3007]2565    std::unordered_set<size_t> blockInWay;
[3005]2566   
[3001]2567    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
[3011]2568   
[3009]2569    for (size_t i = 0; i < regTypesNum; i++)
[3011]2570        livenesses[i].resize(graphVregsCounts[i]);
[3003]2571   
[3005]2572    size_t curLiveTime = 0;
2573   
[2995]2574    while (!flowStack.empty())
2575    {
2576        FlowStackEntry& entry = flowStack.back();
[3012]2577        CodeBlock& cblock = codeBlocks[entry.blockIndex];
[2995]2578       
2579        if (entry.nextIndex == 0)
[3396]2580        {
2581            // process current block
[3007]2582            if (!blockInWay.insert(entry.blockIndex).second)
[3396]2583            {
2584                // if loop
[3009]2585                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
[3011]2586                        livenesses, vregIndexMaps, regTypesNum, regRanges);
[3007]2587                flowStack.pop_back();
2588                continue;
2589            }
2590           
2591            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
[3008]2592            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
[3011]2593                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
[3007]2594           
2595            for (const auto& sentry: cblock.ssaInfoMap)
2596            {
2597                const SSAInfo& sinfo = sentry.second;
2598                // update
2599                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2600                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2601                FlowStackCIter flit = flowStack.end();
2602                --flit; // to last position
2603                auto res = lastVRegMap.insert({ sentry.first, 
2604                            { lastSSAId, { flit } } });
2605                if (!res.second) // if not first seen, just update
[3396]2606                {
2607                    // update last
[3007]2608                    res.first->second.ssaId = lastSSAId;
2609                    res.first->second.blockChain.push_back(flit);
2610                }
2611            }
2612           
[3012]2613            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
[2995]2614            if (!visited[entry.blockIndex])
2615            {
2616                visited[entry.blockIndex] = true;
[3001]2617                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
[3015]2618                AsmRegVarUsage instrRVUs[8];
2619                cxuint instrRVUsCount = 0;
[3001]2620               
2621                size_t oldOffset = cblock.usagePos.readOffset;
2622                std::vector<AsmSingleVReg> readSVRegs;
2623                std::vector<AsmSingleVReg> writtenSVRegs;
2624               
2625                usageHandler.setReadPos(cblock.usagePos);
2626                // register in liveness
2627                while (true)
2628                {
[3004]2629                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
[3012]2630                    size_t liveTimeNext = curBlockLiveEnd;
[3001]2631                    if (usageHandler.hasNext())
[3012]2632                    {
[3001]2633                        rvu = usageHandler.nextUsage();
[3042]2634                        if (rvu.offset >= cblock.end)
2635                            break;
[3015]2636                        if (!rvu.useRegMode)
2637                            instrRVUs[instrRVUsCount++] = rvu;
[3012]2638                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2639                                cblock.start + curLiveTime;
2640                    }
[3005]2641                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
[3001]2642                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
[3396]2643                    {
2644                        // apply to liveness
[3001]2645                        for (AsmSingleVReg svreg: readSVRegs)
2646                        {
[3003]2647                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2648                                    cblock.ssaInfoMap.find(svreg)->second,
2649                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
[3012]2650                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2651                                lv.newRegion(curLiveTime); // begin region from this block
[3005]2652                            lv.expand(liveTime);
[3001]2653                        }
2654                        for (AsmSingleVReg svreg: writtenSVRegs)
2655                        {
2656                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
[3002]2657                            ssaIdIdx++;
[3012]2658                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
[3010]2659                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
[3003]2660                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
[3012]2661                            if (liveTimeNext != curBlockLiveEnd)
2662                                // because live after this instr
2663                                lv.newRegion(liveTimeNext);
2664                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
[3001]2665                        }
[3015]2666                        // get linear deps and equal to
2667                        cxbyte lDeps[16];
2668                        cxbyte eDeps[16];
2669                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
2670                                        lDeps, eDeps);
[3001]2671                       
[3015]2672                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
[3020]2673                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
[3015]2674                                regTypesNum, regRanges);
2675                       
[3001]2676                        readSVRegs.clear();
2677                        writtenSVRegs.clear();
2678                        if (!usageHandler.hasNext())
2679                            break; // end
2680                        oldOffset = rvu.offset;
[3015]2681                        instrRVUsCount = 0;
[3001]2682                    }
2683                    if (rvu.offset >= cblock.end)
2684                        break;
2685                   
2686                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
[3396]2687                    {
2688                        // per register/singlvreg
[3001]2689                        AsmSingleVReg svreg{ rvu.regVar, rindex };
[3003]2690                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
2691                            writtenSVRegs.push_back(svreg);
2692                        else // read or treat as reading // expand previous region
[3001]2693                            readSVRegs.push_back(svreg);
2694                    }
2695                }
[3005]2696                curLiveTime += cblock.end-cblock.start;
[2995]2697            }
[3003]2698            else
[3396]2699            {
2700                // back, already visited
[2995]2701                flowStack.pop_back();
2702                continue;
2703            }
2704        }
2705        if (entry.nextIndex < cblock.nexts.size())
2706        {
2707            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2708            entry.nextIndex++;
2709        }
2710        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
2711        {
2712            flowStack.push_back({ entry.blockIndex+1, 0 });
2713            entry.nextIndex++;
2714        }
2715        else // back
[3396]2716        {
2717            // revert lastSSAIdMap
[3007]2718            blockInWay.erase(entry.blockIndex);
[2995]2719            flowStack.pop_back();
[3005]2720            if (!flowStack.empty())
2721            {
2722                for (const auto& sentry: cblock.ssaInfoMap)
2723                {
2724                    auto lvrit = lastVRegMap.find(sentry.first);
2725                    if (lvrit != lastVRegMap.end())
2726                    {
[3006]2727                        VRegLastPos& lastPos = lvrit->second;
2728                        lastPos.ssaId = sentry.second.ssaIdBefore;
2729                        lastPos.blockChain.pop_back();
2730                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
[3005]2731                            lastVRegMap.erase(lvrit);
2732                    }
2733                }
2734            }
[2995]2735        }
2736    }
[3013]2737   
2738    /// construct liveBlockMaps
2739    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
2740    for (size_t regType = 0; regType < regTypesNum; regType++)
2741    {
2742        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2743        std::vector<Liveness>& liveness = livenesses[regType];
2744        for (size_t li = 0; li < liveness.size(); li++)
2745        {
2746            Liveness& lv = liveness[li];
2747            for (const std::pair<size_t, size_t>& blk: lv.l)
2748                if (blk.first != blk.second)
[3014]2749                    liveBlockMap.insert({ blk.first, blk.second, li });
[3013]2750            lv.clear();
2751        }
2752        liveness.clear();
2753    }
2754   
2755    // create interference graphs
2756    for (size_t regType = 0; regType < regTypesNum; regType++)
2757    {
2758        InterGraph& interGraph = interGraphs[regType];
2759        interGraph.resize(graphVregsCounts[regType]);
2760        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2761       
2762        auto lit = liveBlockMap.begin();
2763        size_t rangeStart = 0;
2764        if (lit != liveBlockMap.end())
[3014]2765            rangeStart = lit->start;
[3013]2766        while (lit != liveBlockMap.end())
2767        {
[3014]2768            const size_t blkStart = lit->start;
2769            const size_t blkEnd = lit->end;
[3013]2770            size_t rangeEnd = blkEnd;
[3014]2771            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
2772            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
[3013]2773            // collect from this range, variable indices
2774            std::set<size_t> varIndices;
2775            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
[3014]2776                varIndices.insert(lit2->vidx);
[3013]2777            // push to intergraph as full subgGraph
2778            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
[3018]2779                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
2780                    if (vit != vit2)
2781                        interGraph[*vit].insert(*vit2);
[3013]2782            // go to next live blocks
2783            rangeStart = rangeEnd;
2784            for (; lit != liveBlockMap.end(); ++lit)
[3014]2785                if (lit->start != blkStart && lit->end != blkEnd)
[3013]2786                    break;
2787            if (lit == liveBlockMap.end())
2788                break; //
[3014]2789            rangeStart = std::max(rangeStart, lit->start);
[3013]2790        }
2791    }
[3020]2792   
2793    /*
2794     * resolve equalSets
2795     */
2796    for (cxuint regType = 0; regType < regTypesNum; regType++)
2797    {
2798        InterGraph& interGraph = interGraphs[regType];
2799        const size_t nodesNum = interGraph.size();
2800        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
2801        std::vector<bool> visited(nodesNum, false);
2802        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2803       
2804        for (size_t v = 0; v < nodesNum;)
2805        {
2806            auto it = etoDepMap.find(v);
2807            if (it == etoDepMap.end())
[3396]2808            {
2809                // is not regvar in equalTo dependencies
[3020]2810                v++;
2811                continue;
2812            }
2813           
2814            std::stack<EqualStackEntry> etoStack;
[3026]2815            etoStack.push(EqualStackEntry{ it, 0 });
[3020]2816           
2817            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2818            const size_t equalSetIndex = equalSetList.size();
2819            equalSetList.push_back(std::vector<size_t>());
2820            std::vector<size_t>& equalSet = equalSetList.back();
2821           
2822            // traverse by this
2823            while (!etoStack.empty())
2824            {
2825                EqualStackEntry& entry = etoStack.top();
2826                size_t vidx = entry.etoDepIt->first; // node index, vreg index
2827                const EqualToDep& eToDep = entry.etoDepIt->second;
2828                if (entry.nextIdx == 0)
2829                {
2830                    if (!visited[vidx])
[3396]2831                    {
2832                        // push to this equalSet
[3020]2833                        equalSetMap.insert({ vidx, equalSetIndex });
2834                        equalSet.push_back(vidx);
2835                    }
2836                    else
[3396]2837                    {
2838                        // already visited
[3020]2839                        etoStack.pop();
2840                        continue;
2841                    }
2842                }
2843               
2844                if (entry.nextIdx < eToDep.nextVidxes.size())
2845                {
2846                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
2847                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2848                    entry.nextIdx++;
2849                }
2850                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
2851                {
2852                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
2853                                entry.nextIdx - eToDep.nextVidxes.size()]);
2854                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2855                    entry.nextIdx++;
2856                }
2857                else
2858                    etoStack.pop();
2859            }
2860           
2861            // to first already added node (var)
2862            while (v < nodesNum && !visited[v]) v++;
2863        }
2864    }
[2980]2865}
2866
[3018]2867typedef AsmRegAllocator::InterGraph InterGraph;
2868
2869struct CLRX_INTERNAL SDOLDOCompare
2870{
2871    const InterGraph& interGraph;
2872    const Array<size_t>& sdoCounts;
2873   
2874    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
2875        : interGraph(_interGraph), sdoCounts(_sdoCounts)
2876    { }
2877   
[3021]2878    bool operator()(size_t a, size_t b) const
[3018]2879    {
2880        if (sdoCounts[a] > sdoCounts[b])
2881            return true;
2882        return interGraph[a].size() > interGraph[b].size();
2883    }
2884};
2885
[3022]2886/* algorithm to allocate regranges:
2887 * from smallest regranges to greatest regranges:
2888 *   choosing free register: from smallest free regranges
2889 *      to greatest regranges:
2890 *         in this same regrange:
2891 *               try to find free regs in regranges
2892 *               try to link free ends of two distinct regranges
2893 */
2894
[3016]2895void AsmRegAllocator::colorInterferenceGraph()
2896{
[3022]2897    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
2898                    assembler.deviceType);
2899   
[3018]2900    for (size_t regType = 0; regType < regTypesNum; regType++)
2901    {
[3022]2902        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
[3018]2903        InterGraph& interGraph = interGraphs[regType];
[3022]2904        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
[3018]2905        Array<cxuint>& gcMap = graphColorMaps[regType];
[3020]2906        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2907        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2908       
[3018]2909        const size_t nodesNum = interGraph.size();
2910        gcMap.resize(nodesNum);
2911        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
2912        Array<size_t> sdoCounts(nodesNum);
[3026]2913        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
[3018]2914       
2915        SDOLDOCompare compare(interGraph, sdoCounts);
2916        std::set<size_t, SDOLDOCompare> nodeSet(compare);
2917        for (size_t i = 0; i < nodesNum; i++)
2918            nodeSet.insert(i);
2919       
[3019]2920        cxuint colorsNum = 0;
[3022]2921        // firstly, allocate real registers
2922        for (const auto& entry: vregIndexMap)
2923            if (entry.first.regVar == nullptr)
2924                gcMap[entry.second[0]] = colorsNum++;
2925       
[3018]2926        for (size_t colored = 0; colored < nodesNum; colored++)
2927        {
2928            size_t node = *nodeSet.begin();
[3020]2929            if (gcMap[node] != UINT_MAX)
2930                continue; // already colored
[3019]2931            size_t color = 0;
[3020]2932            std::vector<size_t> equalNodes;
2933            equalNodes.push_back(node); // only one node, if equalSet not found
2934            auto equalSetMapIt = equalSetMap.find(node);
2935            if (equalSetMapIt != equalSetMap.end())
2936                // found, get equal set from equalSetList
2937                equalNodes = equalSetList[equalSetMapIt->second];
2938           
[3019]2939            for (color = 0; color <= colorsNum; color++)
[3396]2940            {
2941                // find first usable color
[3019]2942                bool thisSame = false;
2943                for (size_t nb: interGraph[node])
2944                    if (gcMap[nb] == color)
2945                    {
2946                        thisSame = true;
2947                        break;
2948                    }
2949                if (!thisSame)
[3018]2950                    break;
[3019]2951            }
[3020]2952            if (color==colorsNum) // add new color if needed
[3022]2953            {
2954                if (colorsNum >= maxColorsNum)
[3457]2955                    throw AsmException("Too many register is needed");
[3019]2956                colorsNum++;
[3022]2957            }
[3018]2958           
[3020]2959            for (size_t nextNode: equalNodes)
2960                gcMap[nextNode] = color;
[3018]2961            // update SDO for node
2962            bool colorExists = false;
[3020]2963            for (size_t node: equalNodes)
[3018]2964            {
[3020]2965                for (size_t nb: interGraph[node])
2966                    if (gcMap[nb] == color)
[3018]2967                    {
2968                        colorExists = true;
2969                        break;
2970                    }
2971                if (!colorExists)
[3020]2972                    sdoCounts[node]++;
2973            }
2974            // update SDO for neighbors
2975            for (size_t node: equalNodes)
2976                for (size_t nb: interGraph[node])
[3018]2977                {
[3020]2978                    colorExists = false;
2979                    for (size_t nb2: interGraph[nb])
2980                        if (gcMap[nb2] == color)
2981                        {
2982                            colorExists = true;
2983                            break;
2984                        }
2985                    if (!colorExists)
2986                    {
2987                        if (gcMap[nb] == UINT_MAX)
2988                            nodeSet.erase(nb);  // before update we erase from nodeSet
2989                        sdoCounts[nb]++;
2990                        if (gcMap[nb] == UINT_MAX)
2991                            nodeSet.insert(nb); // after update, insert again
2992                    }
[3018]2993                }
[3020]2994           
2995            for (size_t nextNode: equalNodes)
2996                gcMap[nextNode] = color;
[3018]2997        }
2998    }
[3016]2999}
3000
[2951]3001void AsmRegAllocator::allocateRegisters(cxuint sectionId)
[3396]3002{
3003    // before any operation, clear all
[2951]3004    codeBlocks.clear();
[3000]3005    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
3006    {
3007        vregIndexMaps[i].clear();
3008        interGraphs[i].clear();
[3020]3009        linearDepMaps[i].clear();
3010        equalToDepMaps[i].clear();
[3018]3011        graphColorMaps[i].clear();
[3020]3012        equalSetMaps[i].clear();
3013        equalSetLists[i].clear();
[3000]3014    }
[3039]3015    ssaReplacesMap.clear();
[3000]3016    cxuint maxRegs[MAX_REGTYPES_NUM];
3017    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
3018   
[2951]3019    // set up
3020    const