source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3916

Last change on this file since 3916 was 3916, checked in by matszpk, 13 months ago

CLRadeonExtender: AsmRegAlloc?: Add new testsuite. Do not put already cached subroutine.

File size: 118.4 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
560// map of last SSAId for routine, key - varid, value - last SSA ids
561class CLRX_INTERNAL LastSSAIdMap: public
562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
563{
564public:
565    LastSSAIdMap()
566    { }
567   
568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
583    size_t weight() const
584    { return size(); }
585};
586
587typedef LastSSAIdMap RBWSSAIdMap;
588
589struct CLRX_INTERNAL RetSSAEntry
590{
591    std::vector<size_t> routines;
592    VectorSet<size_t> ssaIds;
593    size_t prevSSAId; // for curSSAId
594};
595
596typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
597
598struct CLRX_INTERNAL LoopSSAIdMap
599{
600    LastSSAIdMap ssaIdMap;
601    bool passed;
602};
603
604struct CLRX_INTERNAL RoutineData
605{
606    // rbwSSAIdMap - read before write SSAId's map
607    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
608    LastSSAIdMap curSSAIdMap;
609    LastSSAIdMap lastSSAIdMap;
610    // key - loop block, value - last ssaId map for loop end
611    std::unordered_map<size_t, LoopSSAIdMap> loopEnds;
612    bool notFirstReturn;
613    size_t weight_;
614   
615    RoutineData() : notFirstReturn(false), weight_(0)
616    { }
617   
618    void calculateWeight()
619    {
620        weight_ = rbwSSAIdMap.size() + lastSSAIdMap.weight();
621        for (const auto& entry: loopEnds)
622            weight_ += entry.second.ssaIdMap.weight();
623    }
624   
625    size_t weight() const
626    { return weight_; }
627};
628
629struct CLRX_INTERNAL FlowStackEntry
630{
631    size_t blockIndex;
632    size_t nextIndex;
633    bool isCall;
634    RetSSAIdMap prevRetSSAIdSets;
635};
636
637struct CLRX_INTERNAL FlowStackEntry2
638{
639    size_t blockIndex;
640    size_t nextIndex;
641};
642
643
644struct CLRX_INTERNAL CallStackEntry
645{
646    size_t callBlock; // index
647    size_t callNextIndex; // index of call next
648    size_t routineBlock;    // routine block
649};
650
651class ResSecondPointsToCache: public std::vector<bool>
652{
653public:
654    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
655    { }
656   
657    void increase(size_t i)
658    {
659        if ((*this)[i<<1])
660            (*this)[(i<<1)+1] = true;
661        else
662            (*this)[i<<1] = true;
663    }
664   
665    cxuint count(size_t i) const
666    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
667};
668
669typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
670typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
671
672static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
673              size_t origId, size_t destId)
674{
675    auto res = rmap.insert({ vreg, {} });
676    res.first->second.insertValue({ origId, destId });
677}
678
679static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
680            const LastSSAIdMap* stackVarMap,
681            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
682            FlowStackEntry2& entry, const SSAEntry& sentry,
683            RBWSSAIdMap* cacheSecPoints)
684{
685    const SSAInfo& sinfo = sentry.second;
686    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
687   
688    if (res.second && sinfo.readBeforeWrite)
689    {
690        if (cacheSecPoints != nullptr)
691        {
692            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
693            if (!res.second)
694                res.first->second.insertValue(sinfo.ssaIdBefore);
695        }
696       
697        if (stackVarMap != nullptr)
698        {
699           
700            // resolve conflict for this variable ssaId>.
701            // only if in previous block previous SSAID is
702            // read before all writes
703            auto it = stackVarMap->find(sentry.first);
704           
705            if (it != stackVarMap->end())
706            {
707                // found, resolve by set ssaIdLast
708                for (size_t ssaId: it->second)
709                {
710                    if (ssaId > sinfo.ssaIdBefore)
711                    {
712                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
713                            sentry.first.index  << ": " <<
714                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
715                        insertReplace(*replacesMap, sentry.first, ssaId,
716                                    sinfo.ssaIdBefore);
717                    }
718                    else if (ssaId < sinfo.ssaIdBefore)
719                    {
720                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
721                            sentry.first.index  << ": " <<
722                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
723                        insertReplace(*replacesMap, sentry.first,
724                                        sinfo.ssaIdBefore, ssaId);
725                    }
726                    /*else
727                        std::cout << "  noinsertreplace: " <<
728                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
729                }
730            }
731        }
732    }
733}
734
735typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
736
737static void useResSecPointCache(SSAReplacesMap* replacesMap,
738        const LastSSAIdMap* stackVarMap,
739        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
740        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
741        RBWSSAIdMap* destCacheSecPoints)
742{
743    std::cout << "use resSecPointCache for " << nextBlock <<
744            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
745    for (const auto& sentry: *resSecondPoints)
746    {
747        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
748        if (destCacheSecPoints != nullptr && !alreadyRead)
749        {
750            auto res = destCacheSecPoints->insert(sentry);
751            if (!res.second)
752                for (size_t srcSSAId: sentry.second)
753                    res.first->second.insertValue(srcSSAId);
754        }
755       
756        if (stackVarMap != nullptr)
757        {
758            auto it = stackVarMap->find(sentry.first);
759           
760            if (it != stackVarMap->end() && !alreadyRead)
761            {
762                // found, resolve by set ssaIdLast
763                for (size_t ssaId: it->second)
764                {
765                    for (size_t secSSAId: sentry.second)
766                    {
767                        if (ssaId > secSSAId)
768                        {
769                            std::cout << "  insertreplace: " <<
770                                sentry.first.regVar << ":" <<
771                                sentry.first.index  << ": " <<
772                                ssaId << ", " << secSSAId << std::endl;
773                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
774                        }
775                        else if (ssaId < secSSAId)
776                        {
777                            std::cout << "  insertreplace2: " <<
778                                sentry.first.regVar << ":" <<
779                                sentry.first.index  << ": " <<
780                                ssaId << ", " << secSSAId << std::endl;
781                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
782                        }
783                        /*else
784                            std::cout << "  noinsertreplace: " <<
785                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
786                    }
787                }
788            }
789        }
790    }
791}
792
793static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
794                const std::vector<CodeBlock>& codeBlocks,
795                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
796                size_t nextBlock)
797{
798    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
799    //std::stack<CallStackEntry> callStack = prevCallStack;
800    // traverse by graph from next block
801    std::deque<FlowStackEntry2> flowStack;
802    flowStack.push_back({ nextBlock, 0 });
803    std::vector<bool> visited(codeBlocks.size(), false);
804   
805    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
806   
807    RBWSSAIdMap cacheSecPoints;
808   
809    while (!flowStack.empty())
810    {
811        FlowStackEntry2& entry = flowStack.back();
812        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
813       
814        if (entry.nextIndex == 0)
815        {
816            // process current block
817            if (!visited[entry.blockIndex])
818            {
819                visited[entry.blockIndex] = true;
820                std::cout << "  resolv: " << entry.blockIndex << std::endl;
821               
822                const RBWSSAIdMap* resSecondPoints =
823                            resSecondPointsCache.use(entry.blockIndex);
824                if (resSecondPoints == nullptr)
825                    for (auto& sentry: cblock.ssaInfoMap)
826                        handleSSAEntryWhileResolving(nullptr, nullptr,
827                                alreadyReadMap, entry, sentry,
828                                &cacheSecPoints);
829                else // to use cache
830                {
831                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
832                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
833                    flowStack.pop_back();
834                    continue;
835                }
836            }
837            else
838            {
839                // back, already visited
840                std::cout << "resolv already: " << entry.blockIndex << std::endl;
841                flowStack.pop_back();
842                continue;
843            }
844        }
845       
846        /*if (!callStack.empty() &&
847            entry.blockIndex == callStack.top().callBlock &&
848            entry.nextIndex-1 == callStack.top().callNextIndex)
849            callStack.pop(); // just return from call
850        */
851        if (entry.nextIndex < cblock.nexts.size())
852        {
853            /*if (cblock.nexts[entry.nextIndex].isCall)
854                callStack.push({ entry.blockIndex, entry.nextIndex,
855                            cblock.nexts[entry.nextIndex].block });*/
856            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
857            entry.nextIndex++;
858        }
859        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
860                // if have any call then go to next block
861                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
862                 !cblock.haveReturn && !cblock.haveEnd)
863        {
864            // add toResolveMap ssaIds inside called routines
865            for (const auto& next: cblock.nexts)
866                if (next.isCall)
867                {
868                    const RoutineData& rdata = routineMap.find(next.block)->second;
869                    for (const auto& v: rdata.rbwSSAIdMap)
870                        alreadyReadMap.insert({v.first, entry.blockIndex });
871                    for (const auto& v: rdata.lastSSAIdMap)
872                        alreadyReadMap.insert({v.first, entry.blockIndex });
873                }
874           
875            flowStack.push_back({ entry.blockIndex+1, 0 });
876            entry.nextIndex++;
877        }
878        else // back
879        {
880            // remove old to resolve in leaved way to allow collecting next ssaId
881            // before write (can be different due to earlier visit)
882            for (const auto& next: cblock.nexts)
883                if (next.isCall)
884                {
885                    const RoutineData& rdata = routineMap.find(next.block)->second;
886                    for (const auto& v: rdata.rbwSSAIdMap)
887                    {
888                        auto it = alreadyReadMap.find(v.first);
889                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
890                            alreadyReadMap.erase(it);
891                    }
892                    for (const auto& v: rdata.lastSSAIdMap)
893                    {
894                        auto it = alreadyReadMap.find(v.first);
895                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
896                            alreadyReadMap.erase(it);
897                    }
898                }
899           
900            for (const auto& sentry: cblock.ssaInfoMap)
901            {
902                auto it = alreadyReadMap.find(sentry.first);
903                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
904                    // remove old to resolve in leaved way to allow collecting next ssaId
905                    // before write (can be different due to earlier visit)
906                    alreadyReadMap.erase(it);
907            }
908            std::cout << "  popresolv" << std::endl;
909            flowStack.pop_back();
910        }
911    }
912   
913    resSecondPointsCache.put(nextBlock, cacheSecPoints);
914}
915
916
917static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
918        const std::unordered_map<size_t, RoutineData>& routineMap,
919        const std::vector<CodeBlock>& codeBlocks,
920        const PrevWaysIndexMap& prevWaysIndexMap,
921        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
922        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
923        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
924        SSAReplacesMap& replacesMap)
925{
926    size_t nextBlock = prevFlowStack.back().blockIndex;
927    auto pfEnd = prevFlowStack.end();
928    --pfEnd;
929    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
930    LastSSAIdMap stackVarMap;
931   
932    size_t pfStartIndex = 0;
933    {
934        auto pfPrev = pfEnd;
935        --pfPrev;
936        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
937        if (it != prevWaysIndexMap.end())
938        {
939            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
940            if (cached!=nullptr)
941            {
942                std::cout << "use pfcached: " << it->second.first << ", " <<
943                        it->second.second << std::endl;
944                stackVarMap = *cached;
945                pfStartIndex = it->second.second+1;
946            }
947        }
948    }
949   
950    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
951    {
952        const FlowStackEntry2& entry = *pfit;
953        std::cout << "  apply: " << entry.blockIndex << std::endl;
954        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
955        for (const auto& sentry: cblock.ssaInfoMap)
956        {
957            const SSAInfo& sinfo = sentry.second;
958            if (sinfo.ssaIdChange != 0)
959                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
960        }
961        if (entry.nextIndex > cblock.nexts.size())
962            for (const NextBlock& next: cblock.nexts)
963                if (next.isCall)
964                {
965                    std::cout << "  applycall: " << entry.blockIndex << ": " <<
966                            entry.nextIndex << ": " << next.block << std::endl;
967                    const LastSSAIdMap& regVarMap =
968                            routineMap.find(next.block)->second.lastSSAIdMap;
969                    for (const auto& sentry: regVarMap)
970                        stackVarMap[sentry.first] = sentry.second;
971                }
972       
973        // put to first point cache
974        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
975        {
976            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
977            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
978        }
979    }
980   
981    RBWSSAIdMap cacheSecPoints;
982    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
983                cblocksToCache.count(nextBlock)>=2;
984   
985    //std::stack<CallStackEntry> callStack = prevCallStack;
986    // traverse by graph from next block
987    std::deque<FlowStackEntry2> flowStack;
988    flowStack.push_back({ nextBlock, 0 });
989    std::vector<bool> visited(codeBlocks.size(), false);
990   
991    // already read in current path
992    // key - vreg, value - source block where vreg of conflict found
993    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
994   
995    while (!flowStack.empty())
996    {
997        FlowStackEntry2& entry = flowStack.back();
998        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
999       
1000        if (entry.nextIndex == 0)
1001        {
1002            // process current block
1003            if (!visited[entry.blockIndex])
1004            {
1005                visited[entry.blockIndex] = true;
1006                std::cout << "  resolv: " << entry.blockIndex << std::endl;
1007               
1008                const RBWSSAIdMap* resSecondPoints =
1009                        resSecondPointsCache.use(entry.blockIndex);
1010                if (resSecondPoints == nullptr)
1011                    for (auto& sentry: cblock.ssaInfoMap)
1012                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
1013                                alreadyReadMap, entry, sentry,
1014                                toCache ? &cacheSecPoints : nullptr);
1015                else // to use cache
1016                {
1017                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
1018                            resSecondPoints, entry.blockIndex,
1019                            toCache ? &cacheSecPoints : nullptr);
1020                    flowStack.pop_back();
1021                    continue;
1022                }
1023            }
1024            else
1025            {
1026                cblocksToCache.increase(entry.blockIndex);
1027                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1028                            cblocksToCache.count(entry.blockIndex) << std::endl;
1029                // back, already visited
1030                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1031                flowStack.pop_back();
1032                continue;
1033            }
1034        }
1035       
1036        /*if (!callStack.empty() &&
1037            entry.blockIndex == callStack.top().callBlock &&
1038            entry.nextIndex-1 == callStack.top().callNextIndex)
1039            callStack.pop(); // just return from call
1040        */
1041        if (entry.nextIndex < cblock.nexts.size())
1042        {
1043            /*if (cblock.nexts[entry.nextIndex].isCall)
1044                callStack.push({ entry.blockIndex, entry.nextIndex,
1045                            cblock.nexts[entry.nextIndex].block });*/
1046            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1047            entry.nextIndex++;
1048        }
1049        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1050                // if have any call then go to next block
1051                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1052                 !cblock.haveReturn && !cblock.haveEnd)
1053        {
1054            // add toResolveMap ssaIds inside called routines
1055            for (const auto& next: cblock.nexts)
1056                if (next.isCall)
1057                {
1058                    const RoutineData& rdata = routineMap.find(next.block)->second;
1059                    for (const auto& v: rdata.rbwSSAIdMap)
1060                        alreadyReadMap.insert({v.first, entry.blockIndex });
1061                    for (const auto& v: rdata.lastSSAIdMap)
1062                        alreadyReadMap.insert({v.first, entry.blockIndex });
1063                }
1064           
1065            flowStack.push_back({ entry.blockIndex+1, 0 });
1066            entry.nextIndex++;
1067        }
1068        else // back
1069        {
1070            // remove old to resolve in leaved way to allow collecting next ssaId
1071            // before write (can be different due to earlier visit)
1072            for (const auto& next: cblock.nexts)
1073                if (next.isCall)
1074                {
1075                    const RoutineData& rdata = routineMap.find(next.block)->second;
1076                    for (const auto& v: rdata.rbwSSAIdMap)
1077                    {
1078                        auto it = alreadyReadMap.find(v.first);
1079                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1080                            alreadyReadMap.erase(it);
1081                    }
1082                    for (const auto& v: rdata.lastSSAIdMap)
1083                    {
1084                        auto it = alreadyReadMap.find(v.first);
1085                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1086                            alreadyReadMap.erase(it);
1087                    }
1088                }
1089           
1090            for (const auto& sentry: cblock.ssaInfoMap)
1091            {
1092                auto it = alreadyReadMap.find(sentry.first);
1093                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1094                    // remove old to resolve in leaved way to allow collecting next ssaId
1095                    // before write (can be different due to earlier visit)
1096                    alreadyReadMap.erase(it);
1097            }
1098            std::cout << "  popresolv" << std::endl;
1099           
1100            if (cblocksToCache.count(entry.blockIndex)==2 &&
1101                !resSecondPointsCache.hasKey(entry.blockIndex))
1102                // add to cache
1103                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1104                            entry.blockIndex);
1105           
1106            flowStack.pop_back();
1107        }
1108    }
1109   
1110    if (toCache)
1111        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1112}
1113
1114static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1115                size_t routineBlock)
1116{
1117    for (const auto& entry: src)
1118    {
1119        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1120                cxuint(entry.first.index) << ":";
1121        for (size_t v: entry.second)
1122            std::cout << " " << v;
1123        std::cout << std::endl;
1124        // insert if not inserted
1125        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1126        if (res.second)
1127            continue; // added new
1128        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1129        res.first->second.routines.push_back(routineBlock);
1130        // add new ways
1131        for (size_t ssaId: entry.second)
1132            destEntry.insertValue(ssaId);
1133        std::cout << "    :";
1134        for (size_t v: destEntry)
1135            std::cout << " " << v;
1136        std::cout << std::endl;
1137    }
1138}
1139
1140static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1141{
1142    for (const auto& entry: src)
1143    {
1144        std::cout << "  entry: " << entry.first.regVar << ":" <<
1145                cxuint(entry.first.index) << ":";
1146        for (size_t v: entry.second)
1147            std::cout << " " << v;
1148        std::cout << std::endl;
1149        auto res = dest.insert(entry); // find
1150        if (res.second)
1151            continue; // added new
1152        VectorSet<size_t>& destEntry = res.first->second;
1153        // add new ways
1154        for (size_t ssaId: entry.second)
1155            destEntry.insertValue(ssaId);
1156        std::cout << "    :";
1157        for (size_t v: destEntry)
1158            std::cout << " " << v;
1159        std::cout << std::endl;
1160    }
1161}
1162
1163static void joinLastSSAIdMapInt(LastSSAIdMap& dest, const LastSSAIdMap& src,
1164                    const LastSSAIdMap& laterRdataCurSSAIdMap,
1165                    const LastSSAIdMap& laterRdataLastSSAIdMap, bool loop)
1166{
1167    for (const auto& entry: src)
1168    {
1169        auto lsit = laterRdataLastSSAIdMap.find(entry.first);
1170        if (lsit != laterRdataLastSSAIdMap.end())
1171        {
1172            auto csit = laterRdataCurSSAIdMap.find(entry.first);
1173            if (csit != laterRdataCurSSAIdMap.end() && !csit->second.empty())
1174            {
1175                // if found in last ssa ID map,
1176                // but has first value (some way do not change SSAId)
1177                // then pass to add new ssaIds before this point
1178                if (!lsit->second.hasValue(csit->second[0]))
1179                    continue; // otherwise, skip
1180            }
1181        }
1182        std::cout << "  entry: " << entry.first.regVar << ":" <<
1183                cxuint(entry.first.index) << ":";
1184        for (size_t v: entry.second)
1185            std::cout << " " << v;
1186        std::cout << std::endl;
1187        auto res = dest.insert(entry); // find
1188        if (res.second)
1189            continue; // added new
1190        VectorSet<size_t>& destEntry = res.first->second;
1191        // add new ways
1192        for (size_t ssaId: entry.second)
1193            destEntry.insertValue(ssaId);
1194        std::cout << "    :";
1195        for (size_t v: destEntry)
1196            std::cout << " " << v;
1197        std::cout << std::endl;
1198    }
1199    if (!loop) // do not if loop
1200        joinLastSSAIdMap(dest, laterRdataLastSSAIdMap);
1201}
1202
1203static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1204                    const RoutineData& laterRdata, bool loop = false)
1205{
1206    joinLastSSAIdMapInt(dest, src, laterRdata.curSSAIdMap, laterRdata.lastSSAIdMap, loop);
1207}
1208
1209
1210static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1211{
1212    // insert readBeforeWrite only if doesnt exists in destination
1213    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1214   
1215    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1216   
1217    for (const auto& entry: src.lastSSAIdMap)
1218    {
1219        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1220                cxuint(entry.first.index) << ":";
1221        for (size_t v: entry.second)
1222            std::cout << " " << v;
1223        std::cout << std::endl;
1224        auto res = dest.curSSAIdMap.insert(entry); // find
1225        VectorSet<size_t>& destEntry = res.first->second;
1226        if (!res.second)
1227        {
1228            // add new ways
1229            for (size_t ssaId: entry.second)
1230                destEntry.insertValue(ssaId);
1231        }
1232        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1233        if (rbwit != src.rbwSSAIdMap.end() &&
1234            // remove only if not in src lastSSAIdMap
1235            std::find(entry.second.begin(), entry.second.end(),
1236                      rbwit->second) == entry.second.end())
1237            destEntry.eraseValue(rbwit->second);
1238        std::cout << "    :";
1239        for (size_t v: destEntry)
1240            std::cout << " " << v;
1241        std::cout << std::endl;
1242    }
1243}
1244
1245static bool reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1246            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1247            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
1248{
1249    SSAInfo& sinfo = ssaEntry.second;
1250    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1251    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1252    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1253    {
1254        auto& ssaIds = ssaIdsIt->second.ssaIds;
1255       
1256        if (ssaIds.size() >= 2)
1257        {
1258            // reduce to minimal ssaId from all calls
1259            std::sort(ssaIds.begin(), ssaIds.end());
1260            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1261            // insert SSA replaces
1262            size_t minSSAId = ssaIds.front();
1263            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1264                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1265            ssaId = minSSAId+1; // plus one
1266        }
1267        else if (ssaIds.size() == 1)
1268            ssaId = ssaIds.front()+1; // plus one
1269       
1270        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1271                ssaEntry.first.index << ": " << ssaId << std::endl;
1272        // replace smallest ssaId in routineMap lastSSAId entry
1273        // reduce SSAIds replaces
1274        for (size_t rblock: ssaIdsIt->second.routines)
1275            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1276                            VectorSet<size_t>({ ssaId-1 });
1277        // finally remove from container (because obsolete)
1278        retSSAIdMap.erase(ssaIdsIt);
1279        return true;
1280    }
1281    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1282    {
1283        // put before removing to revert for other ways after calls
1284        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1285        if (res.second)
1286            res.first->second = ssaIdsIt->second;
1287        // just remove, if some change without read before
1288        retSSAIdMap.erase(ssaIdsIt);
1289    }
1290    return false;
1291}
1292
1293static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1294                size_t prevSSAId)
1295{
1296    const SSAInfo& sinfo = ssaEntry.second;
1297    bool beforeFirstAccess = true;
1298    // put first SSAId before write
1299    if (sinfo.readBeforeWrite)
1300    {
1301        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1302        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1303            // if already added
1304            beforeFirstAccess = false;
1305    }
1306   
1307    if (sinfo.ssaIdChange != 0)
1308    {
1309        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1310        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1311        // put last SSAId
1312        if (!res.second)
1313        {
1314            beforeFirstAccess = false;
1315            // if not inserted
1316            VectorSet<size_t>& ssaIds = res.first->second;
1317            ssaIds.eraseValue(prevSSAId);
1318            ssaIds.insertValue(sinfo.ssaIdLast);
1319        }
1320        // add readbefore if in previous returns if not added yet
1321        if (rdata.notFirstReturn && beforeFirstAccess)
1322        {
1323            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1324            for (auto& loopEnd: rdata.loopEnds)
1325                loopEnd.second.ssaIdMap.insert({ ssaEntry.first, { prevSSAId } });
1326        }
1327    }
1328    else
1329    {
1330        // insert read ssaid if no change
1331        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1332        if (!res.second)
1333        {
1334            VectorSet<size_t>& ssaIds = res.first->second;
1335            ssaIds.insertValue(prevSSAId);
1336        }
1337    }
1338}
1339
1340static void initializePrevRetSSAIds(const CodeBlock& cblock,
1341            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1342            const RetSSAIdMap& retSSAIdMap, const RoutineData& rdata,
1343            FlowStackEntry& entry)
1344{
1345    for (const auto& v: rdata.lastSSAIdMap)
1346    {
1347        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1348        if (!res.second)
1349            continue; // already added, do not change
1350        auto rfit = retSSAIdMap.find(v.first);
1351        if (rfit != retSSAIdMap.end())
1352            res.first->second = rfit->second;
1353       
1354        auto cbsit = cblock.ssaInfoMap.find(v.first);
1355        auto csit = curSSAIdMap.find(v.first);
1356        res.first->second.prevSSAId = cbsit!=cblock.ssaInfoMap.end() ?
1357                cbsit->second.ssaIdBefore : (csit!=curSSAIdMap.end() ? csit->second : 0);
1358    }
1359}
1360
1361static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1362            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1363{
1364    // revert retSSAIdMap
1365    for (auto v: entry.prevRetSSAIdSets)
1366    {
1367        auto rfit = retSSAIdMap.find(v.first);
1368        if (rdata!=nullptr && rfit != retSSAIdMap.end())
1369        {
1370            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1371            for (size_t ssaId: rfit->second.ssaIds)
1372                ssaIds.eraseValue(ssaId);
1373        }
1374       
1375        if (!v.second.ssaIds.empty())
1376        {
1377            // just add if previously present
1378            if (rfit != retSSAIdMap.end())
1379                rfit->second = v.second;
1380            else
1381                retSSAIdMap.insert(v);
1382        }
1383        else // erase if empty
1384            retSSAIdMap.erase(v.first);
1385       
1386        if (rdata!=nullptr)
1387        {
1388            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1389            for (size_t ssaId: v.second.ssaIds)
1390                ssaIds.insertValue(ssaId);
1391            if (v.second.ssaIds.empty())
1392            {
1393                auto cit = curSSAIdMap.find(v.first);
1394                ssaIds.push_back((cit!=curSSAIdMap.end() ? cit->second : 0)-1);
1395            }
1396           
1397            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1398                    v.first.regVar << ":" << v.first.index << ":";
1399            for (size_t v: ssaIds)
1400                std::cout << " " << v;
1401            std::cout << std::endl;
1402        }
1403        curSSAIdMap[v.first] = v.second.prevSSAId;
1404    }
1405}
1406
1407static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1408            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1409{
1410    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1411    std::cout << " pushentry " << entry.blockIndex << ": " <<
1412                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1413    for (size_t v: ssaIds)
1414        std::cout << " " << v;
1415    std::cout << std::endl;
1416   
1417    // if cblock with some children
1418    if (nextSSAId != curSSAId)
1419        ssaIds.eraseValue(nextSSAId-1);
1420   
1421    // push previous SSAId to lastSSAIdMap (later will be replaced)
1422    /*std::cout << "call back: " << nextSSAId << "," <<
1423            (curSSAId) << std::endl;*/
1424    ssaIds.insertValue(curSSAId-1);
1425   
1426    std::cout << " popentry " << entry.blockIndex << ": " <<
1427                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1428    for (size_t v: ssaIds)
1429        std::cout << " " << v;
1430    std::cout << std::endl;
1431}
1432
1433static bool tryAddLoopEnd(const FlowStackEntry& entry, size_t routineBlock,
1434                RoutineData& rdata, bool isLoop, bool noMainLoop)
1435{
1436    if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1437    {
1438        // handle loops
1439        std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1440        // add to routine data loopEnds
1441        auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1442        if (loopsit2 != rdata.loopEnds.end())
1443        {
1444            if (!loopsit2->second.passed)
1445                // still in loop join ssaid map
1446                joinLastSSAIdMap(loopsit2->second.ssaIdMap, rdata.curSSAIdMap);
1447        }
1448        else
1449            rdata.loopEnds.insert({ entry.blockIndex, { rdata.curSSAIdMap, false } });
1450        return true;
1451    }
1452    return false;
1453}
1454
1455
1456static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1457        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1458        const std::unordered_set<size_t>& loopBlocks,
1459        const ResSecondPointsToCache& subroutToCache,
1460        SimpleCache<size_t, RoutineData>& subroutinesCache,
1461        const std::unordered_map<size_t, RoutineData>& routineMap, RoutineData& rdata,
1462        size_t routineBlock, bool noMainLoop = false,
1463        const std::vector<bool>& prevFlowStackBlocks = {})
1464{
1465    std::cout << "--------- createRoutineData ----------------\n";
1466    std::vector<bool> visited(codeBlocks.size(), false);
1467    std::deque<FlowStackEntry> flowStack;
1468    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1469    if (!prevFlowStackBlocks.empty())
1470        flowStackBlocks = prevFlowStackBlocks;
1471    // last SSA ids map from returns
1472    RetSSAIdMap retSSAIdMap;
1473    flowStack.push_back({ routineBlock, 0 });
1474    flowStackBlocks[routineBlock] = true;
1475   
1476    while (!flowStack.empty())
1477    {
1478        FlowStackEntry& entry = flowStack.back();
1479        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1480       
1481        auto addSubroutine = [&](
1482            std::unordered_map<size_t, LoopSSAIdMap>::const_iterator loopsit2,
1483            bool applyToMainRoutine)
1484        {
1485            if (subroutinesCache.hasKey(entry.blockIndex))
1486            {
1487                // if already put, just applyToMainRoutine if needed
1488                if (applyToMainRoutine &&
1489                    loopBlocks.find(entry.blockIndex) != loopBlocks.end() &&
1490                    loopsit2 != rdata.loopEnds.end())
1491                {
1492                    RoutineData* subRdata = subroutinesCache.use(entry.blockIndex);
1493                    joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1494                                        *subRdata, true);
1495                }
1496                return;
1497            }
1498           
1499            RoutineData subrData;
1500            const bool oldFB = flowStackBlocks[entry.blockIndex];
1501            flowStackBlocks[entry.blockIndex] = !oldFB;
1502            createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1503                subroutinesCache, routineMap, subrData, entry.blockIndex, true,
1504                flowStackBlocks);
1505            flowStackBlocks[entry.blockIndex] = oldFB;
1506            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1507            {   // leave from loop point
1508                std::cout << "   loopfound " << entry.blockIndex << std::endl;
1509                if (loopsit2 != rdata.loopEnds.end())
1510                {
1511                    std::cout << "   loopssaId2Map: " <<
1512                            entry.blockIndex << std::endl;
1513                    joinLastSSAIdMap(subrData.lastSSAIdMap,
1514                            loopsit2->second.ssaIdMap, subrData, true);
1515                    std::cout << "   loopssaIdMap2End: " << std::endl;
1516                    if (applyToMainRoutine)
1517                        joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1518                                        subrData, true);
1519                }
1520            }
1521            subrData.calculateWeight();
1522            subroutinesCache.put(entry.blockIndex, subrData);
1523        };
1524       
1525        if (entry.nextIndex == 0)
1526        {
1527            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1528           
1529            if (!prevFlowStackBlocks.empty() && prevFlowStackBlocks[entry.blockIndex])
1530            {
1531                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1532               
1533                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1534                flowStack.pop_back();
1535                continue;
1536            }
1537           
1538            // process current block
1539            //if (/*cachedRdata != nullptr &&*/
1540                //visited[entry.blockIndex] && flowStack.size() > 1)
1541            const RoutineData* cachedRdata = nullptr;
1542           
1543            if (routineBlock != entry.blockIndex)
1544            {
1545                cachedRdata = subroutinesCache.use(entry.blockIndex);
1546                if (cachedRdata == nullptr)
1547                {
1548                    // try in routine map
1549                    auto rit = routineMap.find(entry.blockIndex);
1550                    if (rit != routineMap.end())
1551                        cachedRdata = &rit->second;
1552                }
1553                if (!isLoop && visited[entry.blockIndex] && cachedRdata == nullptr &&
1554                    subroutToCache.count(entry.blockIndex)!=0)
1555                {
1556                    auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1557                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1558                    addSubroutine(loopsit2, false);
1559                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1560                }
1561            }
1562           
1563            if (cachedRdata != nullptr)
1564            {
1565                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1566                std::cout << "procret2: " << entry.blockIndex << std::endl;
1567                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1568               
1569                // join loopEnds
1570                for (const auto& loopEnd: cachedRdata->loopEnds)
1571                {
1572                    auto res = rdata.loopEnds.insert({ loopEnd.first, LoopSSAIdMap() });
1573                    // true - do not add cached rdata loopend, because it was added
1574                    joinLastSSAIdMapInt(res.first->second.ssaIdMap, rdata.curSSAIdMap,
1575                                cachedRdata->curSSAIdMap, loopEnd.second.ssaIdMap, true);
1576                }
1577                std::cout << "procretend2" << std::endl;
1578                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1579                flowStack.pop_back();
1580                continue;
1581            }
1582            else if (!visited[entry.blockIndex])
1583            {
1584                std::cout << "proc: " << entry.blockIndex << std::endl;
1585                visited[entry.blockIndex] = true;
1586               
1587                for (const auto& ssaEntry: cblock.ssaInfoMap)
1588                    if (ssaEntry.first.regVar != nullptr)
1589                    {
1590                        // put data to routine data
1591                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1592                       
1593                        if (ssaEntry.second.ssaIdChange!=0)
1594                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1595                    }
1596            }
1597            else
1598            {
1599                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1600                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1601                flowStack.pop_back();
1602                continue;
1603            }
1604        }
1605       
1606        // join and skip calls
1607        for (; entry.nextIndex < cblock.nexts.size() &&
1608                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1609            joinRoutineData(rdata, routineMap.find(
1610                            cblock.nexts[entry.nextIndex].block)->second);
1611       
1612        if (entry.nextIndex < cblock.nexts.size())
1613        {
1614            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
1615            flowStack.push_back({ nextBlock, 0 });
1616            // negate - if true (already in flowstack, then popping keep this state)
1617            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1618            entry.nextIndex++;
1619        }
1620        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1621                // if have any call then go to next block
1622                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1623                 !cblock.haveReturn && !cblock.haveEnd)
1624        {
1625            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1626            {
1627                for (const NextBlock& next: cblock.nexts)
1628                    if (next.isCall)
1629                    {
1630                        //std::cout << "joincall:"<< next.block << std::endl;
1631                        auto it = routineMap.find(next.block); // must find
1632                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1633                                    it->second, entry);
1634                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1635                    }
1636            }
1637            const size_t nextBlock = entry.blockIndex+1;
1638            flowStack.push_back({ nextBlock, 0 });
1639            // negate - if true (already in flowstack, then popping keep this state)
1640            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1641            entry.nextIndex++;
1642        }
1643        else
1644        {
1645            std::cout << "popstart: " << entry.blockIndex << std::endl;
1646            if (cblock.haveReturn)
1647            {
1648                std::cout << "procret: " << entry.blockIndex << std::endl;
1649                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1650                std::cout << "procretend" << std::endl;
1651                rdata.notFirstReturn = true;
1652            }
1653           
1654            // revert retSSAIdMap
1655            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
1656            //
1657           
1658            for (const auto& ssaEntry: cblock.ssaInfoMap)
1659            {
1660                if (ssaEntry.first.regVar == nullptr)
1661                    continue;
1662                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1663                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1664                    ssaEntry.second.ssaIdLast+1 : curSSAId;
1665                curSSAIdMap[ssaEntry.first] = curSSAId;
1666               
1667                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1668                            ":" << ssaEntry.first.index << ": " <<
1669                            nextSSAId << ", " << curSSAId << std::endl;
1670               
1671                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1672            }
1673           
1674            auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1675            if ((!noMainLoop || flowStack.size() > 1) &&
1676                subroutToCache.count(entry.blockIndex)!=0)
1677            { //put to cache
1678                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
1679                addSubroutine(loopsit2, true);
1680            }
1681            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1682            {
1683                if (loopsit2 != rdata.loopEnds.end())
1684                {
1685                    std::cout << "   mark loopblocks passed: " <<
1686                                entry.blockIndex << std::endl;
1687                    // mark that loop has passed fully
1688                    loopsit2->second.passed = true;
1689                }
1690                else
1691                    std::cout << "   loopblocks nopassed: " <<
1692                                entry.blockIndex << std::endl;
1693            }
1694           
1695            flowStackBlocks[entry.blockIndex] = false;
1696            std::cout << "pop: " << entry.blockIndex << std::endl;
1697            flowStack.pop_back();
1698        }
1699    }
1700    std::cout << "--------- createRoutineData end ------------\n";
1701}
1702
1703
1704void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1705{
1706    if (codeBlocks.empty())
1707        return;
1708    usageHandler.rewind();
1709    auto cbit = codeBlocks.begin();
1710    AsmRegVarUsage rvu;
1711    if (!usageHandler.hasNext())
1712        return; // do nothing if no regusages
1713    rvu = usageHandler.nextUsage();
1714   
1715    cxuint regRanges[MAX_REGTYPES_NUM*2];
1716    cxuint realRegsCount[MAX_REGTYPES_NUM];
1717    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
1718    size_t regTypesNum;
1719    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1720   
1721    while (true)
1722    {
1723        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
1724        {
1725            cbit->usagePos = usageHandler.getReadPos();
1726            ++cbit;
1727        }
1728        if (cbit == codeBlocks.end())
1729            break;
1730        // skip rvu's before codeblock
1731        while (rvu.offset < cbit->start && usageHandler.hasNext())
1732            rvu = usageHandler.nextUsage();
1733        if (rvu.offset < cbit->start)
1734            break;
1735       
1736        cbit->usagePos = usageHandler.getReadPos();
1737        while (rvu.offset < cbit->end)
1738        {
1739            // process rvu
1740            // only if regVar
1741            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1742            {
1743                auto res = cbit->ssaInfoMap.insert(
1744                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
1745               
1746                SSAInfo& sinfo = res.first->second;
1747                if (res.second)
1748                    sinfo.firstPos = rvu.offset;
1749                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
1750                    // if first write RVU instead read RVU
1751                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
1752                    sinfo.readBeforeWrite = true;
1753                /* change SSA id only for write-only regvars -
1754                 *   read-write place can not have two different variables */
1755                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
1756                    sinfo.ssaIdChange++;
1757                if (rvu.regVar==nullptr)
1758                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
1759                            sinfo.ssaId = sinfo.ssaIdLast = 0;
1760            }
1761            // get next rvusage
1762            if (!usageHandler.hasNext())
1763                break;
1764            rvu = usageHandler.nextUsage();
1765        }
1766        ++cbit;
1767    }
1768   
1769    size_t rbwCount = 0;
1770    size_t wrCount = 0;
1771   
1772    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
1773   
1774    std::deque<CallStackEntry> callStack;
1775    std::deque<FlowStackEntry> flowStack;
1776    // total SSA count
1777    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
1778    // last SSA ids map from returns
1779    RetSSAIdMap retSSAIdMap;
1780    // last SSA ids in current way in code flow
1781    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
1782    // routine map - routine datas map, value - last SSA ids map
1783    std::unordered_map<size_t, RoutineData> routineMap;
1784    // key - current res first key, value - previous first key and its flowStack pos
1785    PrevWaysIndexMap prevWaysIndexMap;
1786    // to track ways last block indices pair: block index, flowStackPos)
1787    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
1788    std::vector<bool> isRoutineGen(codeBlocks.size(), false);
1789   
1790    std::vector<bool> waysToCache(codeBlocks.size(), false);
1791    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1792    // subroutToCache - true if given block begin subroutine to cache
1793    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
1794    std::vector<bool> visited(codeBlocks.size(), false);
1795    flowStack.push_back({ 0, 0 });
1796    flowStackBlocks[0] = true;
1797    std::unordered_set<size_t> loopBlocks;
1798   
1799    while (!flowStack.empty())
1800    {
1801        FlowStackEntry& entry = flowStack.back();
1802        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1803       
1804        if (entry.nextIndex == 0)
1805        {
1806            // process current block
1807            if (!visited[entry.blockIndex])
1808            {
1809                std::cout << "proc: " << entry.blockIndex << std::endl;
1810                visited[entry.blockIndex] = true;
1811               
1812                for (auto& ssaEntry: cblock.ssaInfoMap)
1813                {
1814                    SSAInfo& sinfo = ssaEntry.second;
1815                    if (ssaEntry.first.regVar==nullptr)
1816                    {
1817                        // TODO - pass registers through SSA marking and resolving
1818                        sinfo.ssaIdChange = 0; // zeroing SSA changes
1819                        continue; // no change for registers
1820                    }
1821                   
1822                    bool reducedSSAId = reduceSSAIds(curSSAIdMap, retSSAIdMap,
1823                                routineMap, ssaReplacesMap, entry, ssaEntry);
1824                   
1825                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1826                   
1827                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
1828                    if (totalSSACount == 0)
1829                    {
1830                        // first read before write at all, need change totalcount, ssaId
1831                        ssaId++;
1832                        totalSSACount++;
1833                    }
1834                   
1835                    sinfo.ssaId = totalSSACount;
1836                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
1837                    sinfo.ssaIdBefore = ssaId-1;
1838                   
1839                    totalSSACount += sinfo.ssaIdChange;
1840                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
1841                    //totalSSACount = std::max(totalSSACount, ssaId);
1842                    if (!reducedSSAId || sinfo.ssaIdChange!=0)
1843                        ssaId = totalSSACount;
1844                   
1845                    /*if (!callStack.empty())
1846                        // put data to routine data
1847                        updateRoutineData(routineMap.find(
1848                            callStack.back().routineBlock)->second, ssaEntry);*/
1849                       
1850                    // count read before writes (for cache weight)
1851                    if (sinfo.readBeforeWrite)
1852                        rbwCount++;
1853                    if (sinfo.ssaIdChange!=0)
1854                        wrCount++;
1855                }
1856            }
1857            else
1858            {
1859                // TODO: correctly join this path with routine data
1860                // currently does not include further substitutions in visited path
1861                /*RoutineData* rdata = nullptr;
1862                if (!callStack.empty())
1863                    rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1864               
1865                if (!entry.isCall && rdata != nullptr)
1866                {
1867                    std::cout << "procret2: " << entry.blockIndex << std::endl;
1868                    joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1869                    std::cout << "procretend2" << std::endl;
1870                }*/
1871               
1872                // handle caching for res second point
1873                cblocksToCache.increase(entry.blockIndex);
1874                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1875                            cblocksToCache.count(entry.blockIndex) << std::endl;
1876                // back, already visited
1877                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1878                flowStack.pop_back();
1879               
1880                size_t curWayBIndex = flowStack.back().blockIndex;
1881                if (lastCommonCacheWayPoint.first != SIZE_MAX)
1882                {
1883                    // mark point of way to cache (res first point)
1884                    waysToCache[lastCommonCacheWayPoint.first] = true;
1885                    std::cout << "mark to pfcache " <<
1886                            lastCommonCacheWayPoint.first << ", " <<
1887                            curWayBIndex << std::endl;
1888                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
1889                }
1890                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
1891                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
1892                continue;
1893            }
1894        }
1895       
1896        if (!callStack.empty() &&
1897            entry.blockIndex == callStack.back().callBlock &&
1898            entry.nextIndex-1 == callStack.back().callNextIndex)
1899        {
1900            std::cout << " ret: " << entry.blockIndex << std::endl;
1901            RoutineData& prevRdata =
1902                    routineMap.find(callStack.back().routineBlock)->second;
1903            if (!isRoutineGen[callStack.back().routineBlock])
1904            {
1905                //RoutineData myRoutineData;
1906                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks,
1907                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
1908                            callStack.back().routineBlock);
1909                //prevRdata.compare(myRoutineData);
1910                isRoutineGen[callStack.back().routineBlock] = true;
1911            }
1912           
1913           
1914           
1915            callStack.pop_back(); // just return from call
1916            if (!callStack.empty())
1917                // put to parent routine
1918                joinRoutineData(routineMap.find(callStack.back().routineBlock)->second,
1919                                    prevRdata);
1920        }
1921       
1922        if (entry.nextIndex < cblock.nexts.size())
1923        {
1924            bool isCall = false;
1925            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
1926            if (cblock.nexts[entry.nextIndex].isCall)
1927            {
1928                std::cout << " call: " << entry.blockIndex << std::endl;
1929                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
1930                routineMap.insert({ nextBlock, { } });
1931                isCall = true;
1932            }
1933           
1934            flowStack.push_back({ nextBlock, 0, isCall });
1935            if (flowStackBlocks[nextBlock])
1936            {
1937                loopBlocks.insert(nextBlock);
1938                flowStackBlocks[nextBlock] = false; // keep to inserted in popping
1939            }
1940            else
1941                flowStackBlocks[nextBlock] = true;
1942            entry.nextIndex++;
1943        }
1944        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1945                // if have any call then go to next block
1946                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1947                 !cblock.haveReturn && !cblock.haveEnd)
1948        {
1949            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1950            {
1951                //
1952                for (const NextBlock& next: cblock.nexts)
1953                    if (next.isCall)
1954                    {
1955                        //std::cout << "joincall:"<< next.block << std::endl;
1956                        auto it = routineMap.find(next.block); // must find
1957                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1958                                    it->second, entry);
1959                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1960                    }
1961            }
1962            flowStack.push_back({ entry.blockIndex+1, 0, false });
1963            if (flowStackBlocks[entry.blockIndex+1])
1964            {
1965                loopBlocks.insert(entry.blockIndex+1);
1966                 // keep to inserted in popping
1967                flowStackBlocks[entry.blockIndex+1] = false;
1968            }
1969            else
1970                flowStackBlocks[entry.blockIndex+1] = true;
1971            entry.nextIndex++;
1972        }
1973        else // back
1974        {
1975            RoutineData* rdata = nullptr;
1976            if (!callStack.empty())
1977                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1978           
1979            /*if (cblock.haveReturn && rdata != nullptr)
1980            {
1981                std::cout << "procret: " << entry.blockIndex << std::endl;
1982                joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1983                std::cout << "procretend" << std::endl;
1984            }*/
1985           
1986            // revert retSSAIdMap
1987            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
1988            //
1989           
1990            for (const auto& ssaEntry: cblock.ssaInfoMap)
1991            {
1992                if (ssaEntry.first.regVar == nullptr)
1993                    continue;
1994               
1995                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
1996                const size_t nextSSAId = curSSAId;
1997                curSSAId = ssaEntry.second.ssaIdBefore+1;
1998               
1999                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2000                            ":" << ssaEntry.first.index << ": " <<
2001                            nextSSAId << ", " << curSSAId << std::endl;
2002               
2003                /*if (rdata!=nullptr)
2004                    updateRoutineCurSSAIdMap(rdata, ssaEntry, entry, curSSAId, nextSSAId);
2005                */
2006            }
2007           
2008            std::cout << "pop: " << entry.blockIndex << std::endl;
2009            flowStackBlocks[entry.blockIndex] = false;
2010            flowStack.pop_back();
2011            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
2012                    lastCommonCacheWayPoint.second >= flowStack.size())
2013            {
2014                lastCommonCacheWayPoint =
2015                        { flowStack.back().blockIndex, flowStack.size()-1 };
2016                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
2017            }
2018           
2019        }
2020    }
2021   
2022    /**********
2023     * after that, we find points to resolve conflicts
2024     **********/
2025    flowStack.clear();
2026    std::deque<FlowStackEntry2> flowStack2;
2027   
2028    std::fill(visited.begin(), visited.end(), false);
2029    flowStack2.push_back({ 0, 0 });
2030   
2031    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
2032    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
2033   
2034    while (!flowStack2.empty())
2035    {
2036        FlowStackEntry2& entry = flowStack2.back();
2037        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2038       
2039        if (entry.nextIndex == 0)
2040        {
2041            // process current block
2042            if (!visited[entry.blockIndex])
2043                visited[entry.blockIndex] = true;
2044            else
2045            {
2046                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
2047                            prevWaysIndexMap, waysToCache, cblocksToCache,
2048                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
2049               
2050                // back, already visited
2051                flowStack2.pop_back();
2052                continue;
2053            }
2054        }
2055       
2056        if (entry.nextIndex < cblock.nexts.size())
2057        {
2058            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2059            entry.nextIndex++;
2060        }
2061        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2062                // if have any call then go to next block
2063                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2064                 !cblock.haveReturn && !cblock.haveEnd)
2065        {
2066            flowStack2.push_back({ entry.blockIndex+1, 0 });
2067            entry.nextIndex++;
2068        }
2069        else // back
2070        {
2071            if (cblocksToCache.count(entry.blockIndex)==2 &&
2072                !resSecondPointsCache.hasKey(entry.blockIndex))
2073                // add to cache
2074                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
2075                            entry.blockIndex);
2076            flowStack2.pop_back();
2077        }
2078    }
2079}
2080
2081void AsmRegAllocator::applySSAReplaces()
2082{
2083    /* prepare SSA id replaces */
2084    struct MinSSAGraphNode
2085    {
2086        size_t minSSAId;
2087        bool visited;
2088        std::unordered_set<size_t> nexts;
2089        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
2090    };
2091    struct MinSSAGraphStackEntry
2092    {
2093        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
2094        std::unordered_set<size_t>::const_iterator nextIt;
2095        size_t minSSAId;
2096    };
2097   
2098    for (auto& entry: ssaReplacesMap)
2099    {
2100        VectorSet<SSAReplace>& replaces = entry.second;
2101        std::sort(replaces.begin(), replaces.end());
2102        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
2103        VectorSet<SSAReplace> newReplaces;
2104       
2105        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
2106       
2107        auto it = replaces.begin();
2108        while (it != replaces.end())
2109        {
2110            auto itEnd = std::upper_bound(it, replaces.end(),
2111                            std::make_pair(it->first, size_t(SIZE_MAX)));
2112            {
2113                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2114                node.minSSAId = std::min(node.minSSAId, it->second);
2115                for (auto it2 = it; it2 != itEnd; ++it2)
2116                    node.nexts.insert(it->second);
2117            }
2118            it = itEnd;
2119        }
2120        // propagate min value
2121        std::stack<MinSSAGraphStackEntry> minSSAStack;
2122        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
2123                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
2124        {
2125            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2126            // traverse with minimalize SSA id
2127            while (!minSSAStack.empty())
2128            {
2129                MinSSAGraphStackEntry& entry = minSSAStack.top();
2130                MinSSAGraphNode& node = entry.nodeIt->second;
2131                bool toPop = false;
2132                if (entry.nextIt == node.nexts.begin())
2133                {
2134                    if (!node.visited)
2135                        node.visited = true;
2136                    else
2137                        toPop = true;
2138                }
2139                if (!toPop && entry.nextIt != node.nexts.end())
2140                {
2141                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2142                    if (nodeIt != ssaGraphNodes.end())
2143                    {
2144                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2145                                nodeIt->second.minSSAId });
2146                    }
2147                    ++entry.nextIt;
2148                }
2149                else
2150                {
2151                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2152                    minSSAStack.pop();
2153                    if (!minSSAStack.empty())
2154                    {
2155                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2156                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2157                    }
2158                }
2159            }
2160            // skip visited nodes
2161            while (ssaGraphNodeIt != ssaGraphNodes.end())
2162                if (!ssaGraphNodeIt->second.visited)
2163                    break;
2164        }
2165       
2166        for (const auto& entry: ssaGraphNodes)
2167            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2168       
2169        std::sort(newReplaces.begin(), newReplaces.end());
2170        entry.second = newReplaces;
2171    }
2172   
2173    /* apply SSA id replaces */
2174    for (CodeBlock& cblock: codeBlocks)
2175        for (auto& ssaEntry: cblock.ssaInfoMap)
2176        {
2177            auto it = ssaReplacesMap.find(ssaEntry.first);
2178            if (it == ssaReplacesMap.end())
2179                continue;
2180            SSAInfo& sinfo = ssaEntry.second;
2181            VectorSet<SSAReplace>& replaces = it->second;
2182            if (sinfo.readBeforeWrite)
2183            {
2184                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2185                                 ssaEntry.second.ssaIdBefore);
2186                if (rit != replaces.end())
2187                    sinfo.ssaIdBefore = rit->second; // replace
2188            }
2189            if (sinfo.ssaIdFirst != SIZE_MAX)
2190            {
2191                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2192                                 ssaEntry.second.ssaIdFirst);
2193                if (rit != replaces.end())
2194                    sinfo.ssaIdFirst = rit->second; // replace
2195            }
2196            if (sinfo.ssaIdLast != SIZE_MAX)
2197            {
2198                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2199                                 ssaEntry.second.ssaIdLast);
2200                if (rit != replaces.end())
2201                    sinfo.ssaIdLast = rit->second; // replace
2202            }
2203        }
2204}
2205
2206struct Liveness
2207{
2208    std::map<size_t, size_t> l;
2209   
2210    Liveness() { }
2211   
2212    void clear()
2213    { l.clear(); }
2214   
2215    void expand(size_t k)
2216    {
2217        if (l.empty())
2218            l.insert(std::make_pair(k, k+1));
2219        else
2220        {
2221            auto it = l.end();
2222            --it;
2223            it->second = k+1;
2224        }
2225    }
2226    void newRegion(size_t k)
2227    {
2228        if (l.empty())
2229            l.insert(std::make_pair(k, k));
2230        else
2231        {
2232            auto it = l.end();
2233            --it;
2234            if (it->first != k && it->second != k)
2235                l.insert(std::make_pair(k, k));
2236        }
2237    }
2238   
2239    void insert(size_t k, size_t k2)
2240    {
2241        auto it1 = l.lower_bound(k);
2242        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2243            --it1;
2244        if (it1->second < k)
2245            ++it1;
2246        auto it2 = l.lower_bound(k2);
2247        if (it1!=it2)
2248        {
2249            k = std::min(k, it1->first);
2250            k2 = std::max(k2, (--it2)->second);
2251            l.erase(it1, it2);
2252        }
2253        l.insert(std::make_pair(k, k2));
2254    }
2255   
2256    bool contain(size_t t) const
2257    {
2258        auto it = l.lower_bound(t);
2259        if (it==l.begin() && it->first>t)
2260            return false;
2261        if (it==l.end() || it->first>t)
2262            --it;
2263        return it->first<=t && t<it->second;
2264    }
2265   
2266    bool common(const Liveness& b) const
2267    {
2268        auto i = l.begin();
2269        auto j = b.l.begin();
2270        for (; i != l.end() && j != b.l.end();)
2271        {
2272            if (i->first==i->second)
2273            {
2274                ++i;
2275                continue;
2276            }
2277            if (j->first==j->second)
2278            {
2279                ++j;
2280                continue;
2281            }
2282            if (i->first<j->first)
2283            {
2284                if (i->second > j->first)
2285                    return true; // common place
2286                ++i;
2287            }
2288            else
2289            {
2290                if (i->first < j->second)
2291                    return true; // common place
2292                ++j;
2293            }
2294        }
2295        return false;
2296    }
2297};
2298
2299typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2300
2301static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2302            const AsmSingleVReg& svreg)
2303{
2304    cxuint regType; // regtype
2305    if (svreg.regVar!=nullptr)
2306        regType = svreg.regVar->type;
2307    else
2308        for (regType = 0; regType < regTypesNum; regType++)
2309            if (svreg.index >= regRanges[regType<<1] &&
2310                svreg.index < regRanges[(regType<<1)+1])
2311                break;
2312    return regType;
2313}
2314
2315static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2316        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2317        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2318{
2319    size_t ssaId;
2320    if (svreg.regVar==nullptr)
2321        ssaId = 0;
2322    else if (ssaIdIdx==0)
2323        ssaId = ssaInfo.ssaIdBefore;
2324    else if (ssaIdIdx==1)
2325        ssaId = ssaInfo.ssaIdFirst;
2326    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2327        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2328    else // last
2329        ssaId = ssaInfo.ssaIdLast;
2330   
2331    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2332    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2333    const std::vector<size_t>& ssaIdIndices =
2334                vregIndexMap.find(svreg)->second;
2335    return livenesses[regType][ssaIdIndices[ssaId]];
2336}
2337
2338typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
2339
2340struct CLRX_INTERNAL VRegLastPos
2341{
2342    size_t ssaId; // last SSA id
2343    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2344};
2345
2346/* TODO: add handling calls
2347 * handle many start points in this code (for example many kernel's in same code)
2348 * replace sets by vector, and sort and remove same values on demand
2349 */
2350
2351typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2352
2353static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
2354        const std::vector<CodeBlock>& codeBlocks,
2355        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2356        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2357        size_t regTypesNum, const cxuint* regRanges)
2358{
2359    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2360    for (const auto& entry: cblock.ssaInfoMap)
2361        if (entry.second.readBeforeWrite)
2362        {
2363            // find last
2364            auto lvrit = lastVRegMap.find(entry.first);
2365            if (lvrit == lastVRegMap.end())
2366                continue; // not found
2367            const VRegLastPos& lastPos = lvrit->second;
2368            FlowStackCIter flit = lastPos.blockChain.back();
2369            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2370            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2371            const std::vector<size_t>& ssaIdIndices =
2372                        vregIndexMap.find(entry.first)->second;
2373            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2374            FlowStackCIter flitEnd = flowStack.end();
2375            --flitEnd; // before last element
2376            // insert live time to last seen position
2377            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2378            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2379            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2380                    toLiveCvt + lastBlk.end);
2381            for (++flit; flit != flitEnd; ++flit)
2382            {
2383                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2384                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2385                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2386            }
2387        }
2388}
2389
2390static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
2391        const std::vector<CodeBlock>& codeBlocks,
2392        const Array<size_t>& codeBlockLiveTimes,
2393        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2394        size_t regTypesNum, const cxuint* regRanges)
2395{
2396    auto flitStart = flowStack.end();
2397    --flitStart;
2398    size_t curBlock = flitStart->blockIndex;
2399    // find step in way
2400    while (flitStart->blockIndex != curBlock) --flitStart;
2401    auto flitEnd = flowStack.end();
2402    --flitEnd;
2403    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2404   
2405    // collect var to check
2406    size_t flowPos = 0;
2407    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2408    {
2409        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2410        for (const auto& entry: cblock.ssaInfoMap)
2411        {
2412            const SSAInfo& sinfo = entry.second;
2413            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2414                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2415            varMap[entry.first] = { lastSSAId, flowPos };
2416        }
2417    }
2418    // find connections
2419    flowPos = 0;
2420    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2421    {
2422        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2423        for (const auto& entry: cblock.ssaInfoMap)
2424        {
2425            const SSAInfo& sinfo = entry.second;
2426            auto varMapIt = varMap.find(entry.first);
2427            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2428                flowPos > varMapIt->second.second ||
2429                sinfo.ssaIdBefore != varMapIt->second.first)
2430                continue;
2431            // just connect
2432           
2433            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2434            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2435            const std::vector<size_t>& ssaIdIndices =
2436                        vregIndexMap.find(entry.first)->second;
2437            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2438           
2439            if (flowPos == varMapIt->second.second)
2440            {
2441                // fill whole loop
2442                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2443                {
2444                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2445                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2446                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2447                }
2448                continue;
2449            }
2450           
2451            size_t flowPos2 = 0;
2452            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2453            {
2454                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2455                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2456                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2457            }
2458            // insert liveness for last block in loop of last SSAId (prev round)
2459            auto flit2 = flitStart + flowPos;
2460            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2461            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2462            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2463                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2464            // insert liveness for first block in loop of last SSAId
2465            flit2 = flitStart + (varMapIt->second.second+1);
2466            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2467            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2468            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2469                    toLiveCvt + lastBlk.end);
2470            // fill up loop end
2471            for (++flit2; flit2 != flitEnd; ++flit2)
2472            {
2473                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2474                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2475                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2476            }
2477        }
2478    }
2479}
2480
2481struct LiveBlock
2482{
2483    size_t start;
2484    size_t end;
2485    size_t vidx;
2486   
2487    bool operator==(const LiveBlock& b) const
2488    { return start==b.start && end==b.end && vidx==b.vidx; }
2489   
2490    bool operator<(const LiveBlock& b) const
2491    { return start<b.start || (start==b.start &&
2492            (end<b.end || (end==b.end && vidx<b.vidx))); }
2493};
2494
2495typedef AsmRegAllocator::LinearDep LinearDep;
2496typedef AsmRegAllocator::EqualToDep EqualToDep;
2497typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2498typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2499
2500static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2501            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2502            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2503            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2504            size_t regTypesNum, const cxuint* regRanges)
2505{
2506    // add linear deps
2507    cxuint count = ldeps[0];
2508    cxuint pos = 1;
2509    cxbyte rvuAdded = 0;
2510    for (cxuint i = 0; i < count; i++)
2511    {
2512        cxuint ccount = ldeps[pos++];
2513        std::vector<size_t> vidxes;
2514        cxuint regType = UINT_MAX;
2515        cxbyte align = rvus[ldeps[pos]].align;
2516        for (cxuint j = 0; j < ccount; j++)
2517        {
2518            rvuAdded |= 1U<<ldeps[pos];
2519            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2520            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2521            {
2522                AsmSingleVReg svreg = {rvu.regVar, k};
2523                auto sit = ssaIdIdxMap.find(svreg);
2524                if (regType==UINT_MAX)
2525                    regType = getRegType(regTypesNum, regRanges, svreg);
2526                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2527                const std::vector<size_t>& ssaIdIndices =
2528                            vregIndexMap.find(svreg)->second;
2529                // push variable index
2530                vidxes.push_back(ssaIdIndices[sit->second]);
2531            }
2532        }
2533        ldepsOut[regType][vidxes[0]].align = align;
2534        for (size_t k = 1; k < vidxes.size(); k++)
2535        {
2536            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2537            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2538        }
2539    }
2540    // add single arg linear dependencies
2541    for (cxuint i = 0; i < rvusNum; i++)
2542        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2543        {
2544            const AsmRegVarUsage& rvu = rvus[i];
2545            std::vector<size_t> vidxes;
2546            cxuint regType = UINT_MAX;
2547            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2548            {
2549                AsmSingleVReg svreg = {rvu.regVar, k};
2550                auto sit = ssaIdIdxMap.find(svreg);
2551                if (regType==UINT_MAX)
2552                    regType = getRegType(regTypesNum, regRanges, svreg);
2553                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2554                const std::vector<size_t>& ssaIdIndices =
2555                            vregIndexMap.find(svreg)->second;
2556                // push variable index
2557                vidxes.push_back(ssaIdIndices[sit->second]);
2558            }
2559            for (size_t j = 1; j < vidxes.size(); j++)
2560            {
2561                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2562                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2563            }
2564        }
2565       
2566    /* equalTo dependencies */
2567    count = edeps[0];
2568    pos = 1;
2569    for (cxuint i = 0; i < count; i++)
2570    {
2571        cxuint ccount = edeps[pos++];
2572        std::vector<size_t> vidxes;
2573        cxuint regType = UINT_MAX;
2574        for (cxuint j = 0; j < ccount; j++)
2575        {
2576            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2577            // only one register should be set for equalTo depencencies
2578            // other registers in range will be resolved by linear dependencies
2579            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2580            auto sit = ssaIdIdxMap.find(svreg);
2581            if (regType==UINT_MAX)
2582                regType = getRegType(regTypesNum, regRanges, svreg);
2583            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2584            const std::vector<size_t>& ssaIdIndices =
2585                        vregIndexMap.find(svreg)->second;
2586            // push variable index
2587            vidxes.push_back(ssaIdIndices[sit->second]);
2588        }
2589        for (size_t j = 1; j < vidxes.size(); j++)
2590        {
2591            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2592            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2593        }
2594    }
2595}
2596
2597typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2598
2599struct EqualStackEntry
2600{
2601    EqualToDepMapCIter etoDepIt;
2602    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2603};
2604
2605void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
2606{
2607    // construct var index maps
2608    size_t graphVregsCounts[MAX_REGTYPES_NUM];
2609    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
2610    cxuint regRanges[MAX_REGTYPES_NUM*2];
2611    size_t regTypesNum;
2612    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2613   
2614    for (const CodeBlock& cblock: codeBlocks)
2615        for (const auto& entry: cblock.ssaInfoMap)
2616        {
2617            const SSAInfo& sinfo = entry.second;
2618            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2619            VarIndexMap& vregIndices = vregIndexMaps[regType];
2620            size_t& graphVregsCount = graphVregsCounts[regType];
2621            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2622            size_t ssaIdCount = 0;
2623            if (sinfo.readBeforeWrite)
2624                ssaIdCount = sinfo.ssaIdBefore+1;
2625            if (sinfo.ssaIdChange!=0)
2626            {
2627                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2628                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2629            }
2630            if (ssaIdIndices.size() < ssaIdCount)
2631                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2632           
2633            if (sinfo.readBeforeWrite)
2634                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2635            if (sinfo.ssaIdChange!=0)
2636            {
2637                // fill up ssaIdIndices (with graph Ids)
2638                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2639                for (size_t ssaId = sinfo.ssaId+1;
2640                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2641                    ssaIdIndices[ssaId] = graphVregsCount++;
2642                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2643            }
2644        }
2645   
2646    // construct vreg liveness
2647    std::deque<FlowStackEntry> flowStack;
2648    std::vector<bool> visited(codeBlocks.size(), false);
2649    // hold last vreg ssaId and position
2650    LastVRegMap lastVRegMap;
2651    // hold start live time position for every code block
2652    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
2653    std::unordered_set<size_t> blockInWay;
2654   
2655    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
2656   
2657    for (size_t i = 0; i < regTypesNum; i++)
2658        livenesses[i].resize(graphVregsCounts[i]);
2659   
2660    size_t curLiveTime = 0;
2661   
2662    while (!flowStack.empty())
2663    {
2664        FlowStackEntry& entry = flowStack.back();
2665        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2666       
2667        if (entry.nextIndex == 0)
2668        {
2669            // process current block
2670            if (!blockInWay.insert(entry.blockIndex).second)
2671            {
2672                // if loop
2673                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
2674                        livenesses, vregIndexMaps, regTypesNum, regRanges);
2675                flowStack.pop_back();
2676                continue;
2677            }
2678           
2679            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
2680            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
2681                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
2682           
2683            for (const auto& sentry: cblock.ssaInfoMap)
2684            {
2685                const SSAInfo& sinfo = sentry.second;
2686                // update
2687                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2688                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2689                FlowStackCIter flit = flowStack.end();
2690                --flit; // to last position
2691                auto res = lastVRegMap.insert({ sentry.first, 
2692                            { lastSSAId, { flit } } });
2693                if (!res.second) // if not first seen, just update
2694                {
2695                    // update last
2696                    res.first->second.ssaId = lastSSAId;
2697                    res.first->second.blockChain.push_back(flit);
2698                }
2699            }
2700           
2701            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
2702            if (!visited[entry.blockIndex])
2703            {
2704                visited[entry.blockIndex] = true;
2705                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
2706                AsmRegVarUsage instrRVUs[8];
2707                cxuint instrRVUsCount = 0;
2708               
2709                size_t oldOffset = cblock.usagePos.readOffset;
2710                std::vector<AsmSingleVReg> readSVRegs;
2711                std::vector<AsmSingleVReg> writtenSVRegs;
2712               
2713                usageHandler.setReadPos(cblock.usagePos);
2714                // register in liveness
2715                while (true)
2716                {
2717                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
2718                    size_t liveTimeNext = curBlockLiveEnd;
2719                    if (usageHandler.hasNext())
2720                    {
2721                        rvu = usageHandler.nextUsage();
2722                        if (rvu.offset >= cblock.end)
2723                            break;
2724                        if (!rvu.useRegMode)
2725                            instrRVUs[instrRVUsCount++] = rvu;
2726                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2727                                cblock.start + curLiveTime;
2728                    }
2729                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
2730                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
2731                    {
2732                        // apply to liveness
2733                        for (AsmSingleVReg svreg: readSVRegs)
2734                        {
2735                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2736                                    cblock.ssaInfoMap.find(svreg)->second,
2737                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2738                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2739                                lv.newRegion(curLiveTime); // begin region from this block
2740                            lv.expand(liveTime);
2741                        }
2742                        for (AsmSingleVReg svreg: writtenSVRegs)
2743                        {
2744                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
2745                            ssaIdIdx++;
2746                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
2747                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
2748                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2749                            if (liveTimeNext != curBlockLiveEnd)
2750                                // because live after this instr
2751                                lv.newRegion(liveTimeNext);
2752                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
2753                        }
2754                        // get linear deps and equal to
2755                        cxbyte lDeps[16];
2756                        cxbyte eDeps[16];
2757                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
2758                                        lDeps, eDeps);
2759                       
2760                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
2761                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
2762                                regTypesNum, regRanges);
2763                       
2764                        readSVRegs.clear();
2765                        writtenSVRegs.clear();
2766                        if (!usageHandler.hasNext())
2767                            break; // end
2768                        oldOffset = rvu.offset;
2769                        instrRVUsCount = 0;
2770                    }
2771                    if (rvu.offset >= cblock.end)
2772                        break;
2773                   
2774                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2775                    {
2776                        // per register/singlvreg
2777                        AsmSingleVReg svreg{ rvu.regVar, rindex };
2778                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
2779                            writtenSVRegs.push_back(svreg);
2780                        else // read or treat as reading // expand previous region
2781                            readSVRegs.push_back(svreg);
2782                    }
2783                }
2784                curLiveTime += cblock.end-cblock.start;
2785            }
2786            else
2787            {
2788                // back, already visited
2789                flowStack.pop_back();
2790                continue;
2791            }
2792        }
2793        if (entry.nextIndex < cblock.nexts.size())
2794        {
2795            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2796            entry.nextIndex++;
2797        }
2798        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
2799        {
2800            flowStack.push_back({ entry.blockIndex+1, 0 });
2801            entry.nextIndex++;
2802        }
2803        else // back
2804        {
2805            // revert lastSSAIdMap
2806            blockInWay.erase(entry.blockIndex);
2807            flowStack.pop_back();
2808            if (!flowStack.empty())
2809            {
2810                for (const auto& sentry: cblock.ssaInfoMap)
2811                {
2812                    auto lvrit = lastVRegMap.find(sentry.first);
2813                    if (lvrit != lastVRegMap.end())
2814                    {
2815                        VRegLastPos& lastPos = lvrit->second;
2816                        lastPos.ssaId = sentry.second.ssaIdBefore;
2817                        lastPos.blockChain.pop_back();
2818                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
2819                            lastVRegMap.erase(lvrit);
2820                    }
2821                }
2822            }
2823        }
2824    }
2825   
2826    /// construct liveBlockMaps
2827    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
2828    for (size_t regType = 0; regType < regTypesNum; regType++)
2829    {
2830        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2831        std::vector<Liveness>& liveness = livenesses[regType];
2832        for (size_t li = 0; li < liveness.size(); li++)
2833        {
2834            Liveness& lv = liveness[li];
2835            for (const std::pair<size_t, size_t>& blk: lv.l)
2836                if (blk.first != blk.second)
2837                    liveBlockMap.insert({ blk.first, blk.second, li });
2838            lv.clear();
2839        }
2840        liveness.clear();
2841    }
2842   
2843    // create interference graphs
2844    for (size_t regType = 0; regType < regTypesNum; regType++)
2845    {
2846        InterGraph& interGraph = interGraphs[regType];
2847        interGraph.resize(graphVregsCounts[regType]);
2848        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2849       
2850        auto lit = liveBlockMap.begin();
2851        size_t rangeStart = 0;
2852        if (lit != liveBlockMap.end())
2853            rangeStart = lit->start;
2854        while (lit != liveBlockMap.end())
2855        {
2856            const size_t blkStart = lit->start;
2857            const size_t blkEnd = lit->end;
2858            size_t rangeEnd = blkEnd;
2859            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
2860            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
2861            // collect from this range, variable indices
2862            std::set<size_t> varIndices;
2863            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
2864                varIndices.insert(lit2->vidx);
2865            // push to intergraph as full subgGraph
2866            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
2867                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
2868                    if (vit != vit2)
2869                        interGraph[*vit].insert(*vit2);
2870            // go to next live blocks
2871            rangeStart = rangeEnd;
2872            for (; lit != liveBlockMap.end(); ++lit)
2873                if (lit->start != blkStart && lit->end != blkEnd)
2874                    break;
2875            if (lit == liveBlockMap.end())
2876                break; //
2877            rangeStart = std::max(rangeStart, lit->start);
2878        }
2879    }
2880   
2881    /*
2882     * resolve equalSets
2883     */
2884    for (cxuint regType = 0; regType < regTypesNum; regType++)
2885    {
2886        InterGraph& interGraph = interGraphs[regType];
2887        const size_t nodesNum = interGraph.size();
2888        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
2889        std::vector<bool> visited(nodesNum, false);
2890        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2891       
2892        for (size_t v = 0; v < nodesNum;)
2893        {
2894            auto it = etoDepMap.find(v);
2895            if (it == etoDepMap.end())
2896            {
2897                // is not regvar in equalTo dependencies
2898                v++;
2899                continue;
2900            }
2901           
2902            std::stack<EqualStackEntry> etoStack;
2903            etoStack.push(EqualStackEntry{ it, 0 });
2904           
2905            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2906            const size_t equalSetIndex = equalSetList.size();
2907            equalSetList.push_back(std::vector<size_t>());
2908            std::vector<size_t>& equalSet = equalSetList.back();
2909           
2910            // traverse by this
2911            while (!etoStack.empty())
2912            {
2913                EqualStackEntry& entry = etoStack.top();
2914                size_t vidx = entry.etoDepIt->first; // node index, vreg index
2915                const EqualToDep& eToDep = entry.etoDepIt->second;
2916                if (entry.nextIdx == 0)
2917                {
2918                    if (!visited[vidx])
2919                    {
2920                        // push to this equalSet
2921                        equalSetMap.insert({ vidx, equalSetIndex });
2922                        equalSet.push_back(vidx);
2923                    }
2924                    else
2925                    {
2926                        // already visited
2927                        etoStack.pop();
2928                        continue;
2929                    }
2930                }
2931               
2932                if (entry.nextIdx < eToDep.nextVidxes.size())
2933                {
2934                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
2935                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2936                    entry.nextIdx++;
2937                }
2938                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
2939                {
2940                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
2941                                entry.nextIdx - eToDep.nextVidxes.size()]);
2942                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2943                    entry.nextIdx++;
2944                }
2945                else
2946                    etoStack.pop();
2947            }
2948           
2949            // to first already added node (var)
2950            while (v < nodesNum && !visited[v]) v++;
2951        }
2952    }
2953}
2954
2955typedef AsmRegAllocator::InterGraph InterGraph;
2956
2957struct CLRX_INTERNAL SDOLDOCompare
2958{
2959    const InterGraph& interGraph;
2960    const Array<size_t>& sdoCounts;
2961   
2962    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
2963        : interGraph(_interGraph), sdoCounts(_sdoCounts)
2964    { }
2965   
2966    bool operator()(size_t a, size_t b) const
2967    {
2968        if (sdoCounts[a] > sdoCounts[b])
2969            return true;
2970        return interGraph[a].size() > interGraph[b].size();
2971    }
2972};
2973
2974/* algorithm to allocate regranges:
2975 * from smallest regranges to greatest regranges:
2976 *   choosing free register: from smallest free regranges
2977 *      to greatest regranges:
2978 *         in this same regrange:
2979 *               try to find free regs in regranges
2980 *               try to link free ends of two distinct regranges
2981 */
2982
2983void AsmRegAllocator::colorInterferenceGraph()
2984{
2985    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
2986                    assembler.deviceType);
2987   
2988    for (size_t regType = 0; regType < regTypesNum; regType++)
2989    {
2990        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
2991        InterGraph& interGraph = interGraphs[regType];
2992        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2993        Array<cxuint>& gcMap = graphColorMaps[regType];
2994        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2995        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2996       
2997        const size_t nodesNum = interGraph.size();
2998        gcMap.resize(nodesNum);
2999        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
3000        Array<size_t> sdoCounts(nodesNum);
3001        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
3002       
3003        SDOLDOCompare compare(interGraph, sdoCounts);
3004        std::set<size_t, SDOLDOCompare> nodeSet(compare);
3005        for (size_t i = 0; i < nodesNum; i++)
3006            nodeSet.insert(i);
3007       
3008        cxuint colorsNum = 0;
3009        // firstly, allocate real registers
3010        for (const auto& entry: vregIndexMap)
3011            if (entry.first.regVar == nullptr)
3012                gcMap[entry.second[0]] = colorsNum++;
3013       
3014        for (size_t colored = 0; colored < nodesNum; colored++)
3015        {
3016            size_t node = *nodeSet.begin();
3017            if (gcMap[node] != UINT_MAX)
3018                continue; // already colored
3019            size_t color = 0;
3020            std::vector<size_t> equalNodes;
3021            equalNodes.push_back(node); // only one node, if equalSet not found
3022            auto equalSetMapIt = equalSetMap.find(node);
3023            if (equalSetMapIt != equalSetMap.end())
3024                // found, get equal set from equalSetList
3025                equalNodes = equalSetList[equalSetMapIt->second];
3026           
3027            for (color = 0; color <= colorsNum; color++)
3028            {
3029                // find first usable color
3030                bool thisSame = false;
3031                for (size_t nb: interGraph[node])
3032                    if (gcMap[nb] == color)
3033                    {
3034                        thisSame = true;
3035                        break;
3036                    }
3037                if (!thisSame)
3038                    break;
3039            }
3040            if (color==colorsNum) // add new color if needed
3041            {
3042                if (colorsNum >= maxColorsNum)
3043                    throw AsmException("Too many register is needed");
3044                colorsNum++;
3045            }
3046           
3047            for (size_t nextNode: equalNodes)
3048                gcMap[nextNode] = color;
3049            // update SDO for node
3050            bool colorExists = false;
3051            for (size_t node: equalNodes)
3052            {
3053                for (size_t nb: interGraph[node])
3054                    if (gcMap[nb] == color)
3055                    {
3056                        colorExists = true;
3057                        break;
3058                    }
3059                if (!colorExists)
3060                    sdoCounts[node]++;
3061            }
3062            // update SDO for neighbors
3063            for (size_t node: equalNodes)
3064                for (size_t nb: interGraph[node])
3065                {
3066                    colorExists = false;
3067                    for (size_t nb2: interGraph[nb])
3068                        if (gcMap[nb2] == color)
3069                        {
3070                            colorExists = true;
3071                            break;
3072                        }
3073                    if (!colorExists)
3074                    {
3075                        if (gcMap[nb] == UINT_MAX)
3076                            nodeSet.erase(nb);  // before update we erase from nodeSet
3077                        sdoCounts[nb]++;
3078                        if (gcMap[nb] == UINT_MAX)
3079                            nodeSet.insert(nb); // after update, insert again
3080                    }
3081                }
3082           
3083            for (size_t nextNode: equalNodes)
3084                gcMap[nextNode] = color;
3085        }
3086    }
3087}
3088
3089void AsmRegAllocator::allocateRegisters(cxuint sectionId)
3090{
3091    // before any operation, clear all
3092    codeBlocks.clear();
3093    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
3094    {
3095        vregIndexMaps[i].clear();
3096        interGraphs[i].clear();
3097        linearDepMaps[i].clear();
3098        equalToDepMaps[i].clear();
3099        graphColorMaps[i].clear();
3100        equalSetMaps[i].clear();
3101        equalSetLists[i].clear();
3102    }
3103    ssaReplacesMap.clear();
3104    cxuint maxRegs[MAX_REGTYPES_NUM];
3105    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
3106   
3107    // set up
3108    const AsmSection& section = assembler.sections[sectionId];
3109    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
3110    createSSAData(*section.usageHandler);
3111    applySSAReplaces();
3112    createInterferenceGraph(*section.usageHandler);
3113    colorInterferenceGraph();
3114}
Note: See TracBrowser for help on using the repository browser.