source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3969

Last change on this file since 3969 was 3969, checked in by matszpk, 15 months ago

CLRadeonExtender: AsmRegAlloc?: keep retSSAId of the input of regvar while reducing retSSAIds. Add extra debug outputs.

File size: 136.5 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558
559//  BlockIndex
560
561struct CLRX_INTERNAL BlockIndex
562{
563    size_t index;
564    size_t pass;
565   
566    BlockIndex(size_t _index = 0, size_t _pass = 0)
567            : index(_index), pass(_pass)
568    { }
569   
570    bool operator==(const BlockIndex& v) const
571    { return index==v.index && pass==v.pass; }
572    bool operator!=(const BlockIndex& v) const
573    { return index!=v.index || pass!=v.pass; }
574   
575    BlockIndex operator+(size_t p) const
576    { return BlockIndex(index+p, pass); }
577};
578
579std::ostream& operator<<(std::ostream& os, const BlockIndex& v)
580{
581    if (v.pass==0)
582        return os << v.index;
583    else
584        return os << v.index << "#" << v.pass;
585}
586
587namespace std
588{
589
590/// std::hash specialization for CLRX CString
591template<>
592struct hash<BlockIndex>
593{
594    typedef BlockIndex argument_type;    ///< argument type
595    typedef std::size_t result_type;    ///< result type
596   
597    /// a calling operator
598    size_t operator()(const BlockIndex& r1) const
599    {
600        std::hash<size_t> h1;
601        return h1(r1.index) ^ h1(r1.pass);
602    }
603};
604
605}
606
607class CLRX_INTERNAL CBlockBitPool: public std::vector<bool>
608{
609public:
610    CBlockBitPool(size_t n = 0, bool v = false) : std::vector<bool>(n<<1, v)
611    { }
612   
613    reference operator[](BlockIndex i)
614    { return std::vector<bool>::operator[](i.index + (i.pass ? (size()>>1) : 0)); }
615    const_reference operator[](BlockIndex i) const
616    { return std::vector<bool>::operator[](i.index + (i.pass ? (size()>>1) : 0)); }
617};
618
619/** Simple cache **/
620
621// map of last SSAId for routine, key - varid, value - last SSA ids
622class CLRX_INTERNAL LastSSAIdMap: public
623            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
624{
625public:
626    LastSSAIdMap()
627    { }
628   
629    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
630    {
631        auto res = insert({ vreg, { ssaId } });
632        if (!res.second)
633            res.first->second.insertValue(ssaId);
634        return res.first;
635    }
636   
637    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
638    {
639        auto it = find(vreg);
640        if (it != end())
641             it->second.eraseValue(ssaId);
642    }
643   
644    size_t weight() const
645    { return size(); }
646};
647
648typedef LastSSAIdMap RBWSSAIdMap;
649typedef std::unordered_map<BlockIndex, VectorSet<BlockIndex> > SubrLoopsMap;
650
651struct CLRX_INTERNAL RetSSAEntry
652{
653    std::vector<BlockIndex> routines;
654    VectorSet<size_t> ssaIds;
655    size_t prevSSAId; // for curSSAId
656};
657
658typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
659
660struct CLRX_INTERNAL LoopSSAIdMap
661{
662    LastSSAIdMap ssaIdMap;
663    bool passed;
664};
665
666struct CLRX_INTERNAL RoutineData
667{
668    // rbwSSAIdMap - read before write SSAId's map
669    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
670    LastSSAIdMap curSSAIdMap;
671    LastSSAIdMap lastSSAIdMap;
672    // key - loop block, value - last ssaId map for loop end
673    std::unordered_map<BlockIndex, LoopSSAIdMap> loopEnds;
674    bool notFirstReturn;
675    size_t weight_;
676   
677    RoutineData() : notFirstReturn(false), weight_(0)
678    { }
679   
680    void calculateWeight()
681    {
682        weight_ = rbwSSAIdMap.size() + lastSSAIdMap.weight();
683        for (const auto& entry: loopEnds)
684            weight_ += entry.second.ssaIdMap.weight();
685    }
686   
687    size_t weight() const
688    { return weight_; }
689};
690
691struct CLRX_INTERNAL FlowStackEntry
692{
693    BlockIndex blockIndex;
694    size_t nextIndex;
695    bool isCall;
696    RetSSAIdMap prevRetSSAIdSets;
697};
698
699struct CLRX_INTERNAL FlowStackEntry2
700{
701    BlockIndex blockIndex;
702    size_t nextIndex;
703};
704
705struct CLRX_INTERNAL FlowStackEntry3
706{
707    size_t blockIndex;
708    size_t nextIndex;
709    bool isCall;
710    RetSSAIdMap prevRetSSAIdSets;
711};
712
713
714struct CLRX_INTERNAL CallStackEntry
715{
716    BlockIndex callBlock; // index
717    size_t callNextIndex; // index of call next
718    BlockIndex routineBlock;    // routine block
719};
720
721typedef std::unordered_map<BlockIndex, RoutineData> RoutineMap;
722
723class CLRX_INTERNAL ResSecondPointsToCache: public CBlockBitPool
724{
725public:
726    explicit ResSecondPointsToCache(size_t n) : CBlockBitPool(n<<1, false)
727    { }
728   
729    void increase(BlockIndex ip)
730    {
731        const size_t i = ip.index + (ip.pass ? (size()>>2) : 0);
732        if ((*this)[i<<1])
733            (*this)[(i<<1)+1] = true;
734        else
735            (*this)[i<<1] = true;
736    }
737   
738    cxuint count(BlockIndex ip) const
739    {
740        const size_t i = ip.index + (ip.pass ? (size()>>2) : 0);
741        return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1];
742    }
743};
744
745typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
746typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
747
748static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
749              size_t origId, size_t destId)
750{
751    auto res = rmap.insert({ vreg, {} });
752    res.first->second.insertValue({ origId, destId });
753}
754
755/* caching concepts:
756 * resfirstPointsCache - cache of the ways that goes to conflict which should be resolved
757 *               from first code block of the code. The entries holds a stackVarMap state
758 *               to first point the conflict (first visited already code block)
759 * resSecondPointsCache - cache of the tree traversing, starting at the first conflict
760 *               point (first visited code block). Entries holds a
761 *               regvars SSAId read before write (that should resolved)
762 */
763
764static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
765            const LastSSAIdMap* stackVarMap,
766            std::unordered_map<AsmSingleVReg, BlockIndex>& alreadyReadMap,
767            FlowStackEntry2& entry, const SSAEntry& sentry,
768            RBWSSAIdMap* cacheSecPoints)
769{
770    const SSAInfo& sinfo = sentry.second;
771    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
772   
773    if (res.second && sinfo.readBeforeWrite)
774    {
775        if (cacheSecPoints != nullptr)
776        {
777            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
778            if (!res.second)
779                res.first->second.insertValue(sinfo.ssaIdBefore);
780        }
781       
782        if (stackVarMap != nullptr)
783        {
784           
785            // resolve conflict for this variable ssaId>.
786            // only if in previous block previous SSAID is
787            // read before all writes
788            auto it = stackVarMap->find(sentry.first);
789           
790            if (it != stackVarMap->end())
791            {
792                // found, resolve by set ssaIdLast
793                for (size_t ssaId: it->second)
794                {
795                    if (ssaId > sinfo.ssaIdBefore)
796                    {
797                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
798                            sentry.first.index  << ": " <<
799                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
800                        insertReplace(*replacesMap, sentry.first, ssaId,
801                                    sinfo.ssaIdBefore);
802                    }
803                    else if (ssaId < sinfo.ssaIdBefore)
804                    {
805                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
806                            sentry.first.index  << ": " <<
807                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
808                        insertReplace(*replacesMap, sentry.first,
809                                        sinfo.ssaIdBefore, ssaId);
810                    }
811                    /*else
812                        std::cout << "  noinsertreplace: " <<
813                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
814                }
815            }
816        }
817    }
818}
819
820typedef std::unordered_map<BlockIndex, std::pair<BlockIndex, size_t> > PrevWaysIndexMap;
821
822// use res second point cache entry to resolve conflict with SSAIds.
823// it emits SSA replaces from these conflicts
824static void useResSecPointCache(SSAReplacesMap* replacesMap,
825        const LastSSAIdMap* stackVarMap,
826        const std::unordered_map<AsmSingleVReg, BlockIndex>& alreadyReadMap,
827        const RBWSSAIdMap* resSecondPoints, BlockIndex nextBlock,
828        RBWSSAIdMap* destCacheSecPoints)
829{
830    std::cout << "use resSecPointCache for " << nextBlock <<
831            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
832    for (const auto& sentry: *resSecondPoints)
833    {
834        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
835        if (destCacheSecPoints != nullptr && !alreadyRead)
836        {
837            auto res = destCacheSecPoints->insert(sentry);
838            if (!res.second)
839                for (size_t srcSSAId: sentry.second)
840                    res.first->second.insertValue(srcSSAId);
841        }
842       
843        if (stackVarMap != nullptr)
844        {
845            auto it = stackVarMap->find(sentry.first);
846           
847            if (it != stackVarMap->end() && !alreadyRead)
848            {
849                // found, resolve by set ssaIdLast
850                for (size_t ssaId: it->second)
851                {
852                    for (size_t secSSAId: sentry.second)
853                    {
854                        if (ssaId > secSSAId)
855                        {
856                            std::cout << "  insertreplace: " <<
857                                sentry.first.regVar << ":" <<
858                                sentry.first.index  << ": " <<
859                                ssaId << ", " << secSSAId << std::endl;
860                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
861                        }
862                        else if (ssaId < secSSAId)
863                        {
864                            std::cout << "  insertreplace2: " <<
865                                sentry.first.regVar << ":" <<
866                                sentry.first.index  << ": " <<
867                                ssaId << ", " << secSSAId << std::endl;
868                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
869                        }
870                        /*else
871                            std::cout << "  noinsertreplace: " <<
872                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
873                    }
874                }
875            }
876        }
877    }
878}
879
880// add new res second cache entry with readBeforeWrite for all encountered regvars
881static void addResSecCacheEntry(const RoutineMap& routineMap,
882                const std::vector<CodeBlock>& codeBlocks,
883                SimpleCache<BlockIndex, RBWSSAIdMap>& resSecondPointsCache,
884                BlockIndex nextBlock)
885{
886    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
887    //std::stack<CallStackEntry> callStack = prevCallStack;
888    // traverse by graph from next block
889    std::deque<FlowStackEntry2> flowStack;
890    flowStack.push_back({ nextBlock, 0 });
891    CBlockBitPool visited(codeBlocks.size(), false);
892   
893    std::unordered_map<AsmSingleVReg, BlockIndex> alreadyReadMap;
894   
895    RBWSSAIdMap cacheSecPoints;
896   
897    while (!flowStack.empty())
898    {
899        FlowStackEntry2& entry = flowStack.back();
900        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
901       
902        if (entry.nextIndex == 0)
903        {
904            // process current block
905            if (!visited[entry.blockIndex])
906            {
907                visited[entry.blockIndex] = true;
908                std::cout << "  resolv (cache): " << entry.blockIndex << std::endl;
909               
910                const RBWSSAIdMap* resSecondPoints =
911                            resSecondPointsCache.use(entry.blockIndex);
912                if (resSecondPoints == nullptr)
913                    for (auto& sentry: cblock.ssaInfoMap)
914                        handleSSAEntryWhileResolving(nullptr, nullptr,
915                                alreadyReadMap, entry, sentry,
916                                &cacheSecPoints);
917                else // to use cache
918                {
919                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
920                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
921                    flowStack.pop_back();
922                    continue;
923                }
924            }
925            else
926            {
927                // back, already visited
928                std::cout << "resolv already (cache): " << entry.blockIndex << std::endl;
929                flowStack.pop_back();
930                continue;
931            }
932        }
933       
934        if (entry.nextIndex < cblock.nexts.size())
935        {
936            flowStack.push_back({ { cblock.nexts[entry.nextIndex].block,
937                    entry.blockIndex.pass }, 0 });
938            entry.nextIndex++;
939        }
940        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
941                // if have any call then go to next block
942                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
943                 !cblock.haveReturn && !cblock.haveEnd)
944        {
945            // add toResolveMap ssaIds inside called routines
946            for (const auto& next: cblock.nexts)
947                if (next.isCall)
948                {
949                    const RoutineData& rdata = routineMap.find(next.block)->second;
950                    for (const auto& v: rdata.rbwSSAIdMap)
951                        alreadyReadMap.insert({v.first, entry.blockIndex });
952                    for (const auto& v: rdata.lastSSAIdMap)
953                        alreadyReadMap.insert({v.first, entry.blockIndex });
954                }
955           
956            flowStack.push_back({ entry.blockIndex+1, 0 });
957            entry.nextIndex++;
958        }
959        else // back
960        {
961            // remove old to resolve in leaved way to allow collecting next ssaId
962            // before write (can be different due to earlier visit)
963            for (const auto& next: cblock.nexts)
964                if (next.isCall)
965                {
966                    const RoutineData& rdata = routineMap.find(next.block)->second;
967                    for (const auto& v: rdata.rbwSSAIdMap)
968                    {
969                        auto it = alreadyReadMap.find(v.first);
970                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
971                            alreadyReadMap.erase(it);
972                    }
973                    for (const auto& v: rdata.lastSSAIdMap)
974                    {
975                        auto it = alreadyReadMap.find(v.first);
976                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
977                            alreadyReadMap.erase(it);
978                    }
979                }
980           
981            for (const auto& sentry: cblock.ssaInfoMap)
982            {
983                auto it = alreadyReadMap.find(sentry.first);
984                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
985                    // remove old to resolve in leaved way to allow collecting next ssaId
986                    // before write (can be different due to earlier visit)
987                    alreadyReadMap.erase(it);
988            }
989            std::cout << "  popresolv (cache)" << std::endl;
990            flowStack.pop_back();
991        }
992    }
993   
994    resSecondPointsCache.put(nextBlock, cacheSecPoints);
995}
996
997// apply calls (changes from these calls) from code blocks to stack var map
998static void applyCallToStackVarMap(const CodeBlock& cblock, const RoutineMap& routineMap,
999        LastSSAIdMap& stackVarMap, BlockIndex blockIndex, size_t nextIndex)
1000{
1001    for (const NextBlock& next: cblock.nexts)
1002        if (next.isCall)
1003        {
1004            const LastSSAIdMap& regVarMap =
1005                    routineMap.find(next.block)->second.lastSSAIdMap;
1006            for (const auto& sentry: regVarMap)
1007                stackVarMap[sentry.first].clear(); // clearing
1008        }
1009   
1010    for (const NextBlock& next: cblock.nexts)
1011        if (next.isCall)
1012        {
1013            std::cout << "  applycall: " << blockIndex << ": " <<
1014                    nextIndex << ": " << next.block << std::endl;
1015            const LastSSAIdMap& regVarMap =
1016                    routineMap.find(next.block)->second.lastSSAIdMap;
1017            for (const auto& sentry: regVarMap)
1018                for (size_t s: sentry.second)
1019                    stackVarMap.insertSSAId(sentry.first, s);
1020        }
1021}
1022
1023
1024// main routine to resilve SSA conflicts in code
1025// it emits SSA replaces from these conflicts
1026static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
1027        const RoutineMap& routineMap, const std::vector<CodeBlock>& codeBlocks,
1028        const PrevWaysIndexMap& prevWaysIndexMap,
1029        const CBlockBitPool& waysToCache, ResSecondPointsToCache& cblocksToCache,
1030        SimpleCache<BlockIndex, LastSSAIdMap>& resFirstPointsCache,
1031        SimpleCache<BlockIndex, RBWSSAIdMap>& resSecondPointsCache,
1032        SSAReplacesMap& replacesMap)
1033{
1034    BlockIndex nextBlock = prevFlowStack.back().blockIndex;
1035    auto pfEnd = prevFlowStack.end();
1036    --pfEnd;
1037    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
1038    LastSSAIdMap stackVarMap;
1039   
1040    size_t pfStartIndex = 0;
1041    {
1042        auto pfPrev = pfEnd;
1043        --pfPrev;
1044        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
1045        if (it != prevWaysIndexMap.end())
1046        {
1047            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
1048            if (cached!=nullptr)
1049            {
1050                std::cout << "use pfcached: " << it->second.first << ", " <<
1051                        it->second.second << std::endl;
1052                stackVarMap = *cached;
1053                pfStartIndex = it->second.second+1;
1054               
1055                // apply missing calls at end of the cached
1056                const CodeBlock& cblock = codeBlocks[it->second.first.index];
1057               
1058                const FlowStackEntry2& entry = *(prevFlowStack.begin()+pfStartIndex-1);
1059                if (entry.nextIndex > cblock.nexts.size())
1060                    applyCallToStackVarMap(cblock, routineMap, stackVarMap, -1, -1);
1061            }
1062        }
1063    }
1064   
1065    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
1066    {
1067        const FlowStackEntry2& entry = *pfit;
1068        std::cout << "  apply: " << entry.blockIndex << std::endl;
1069        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1070        for (const auto& sentry: cblock.ssaInfoMap)
1071        {
1072            const SSAInfo& sinfo = sentry.second;
1073            if (sinfo.ssaIdChange != 0)
1074                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
1075        }
1076        if (entry.nextIndex > cblock.nexts.size())
1077            applyCallToStackVarMap(cblock, routineMap, stackVarMap,
1078                        entry.blockIndex, entry.nextIndex);
1079       
1080        // put to first point cache
1081        if (waysToCache[pfit->blockIndex] &&
1082            !resFirstPointsCache.hasKey(pfit->blockIndex))
1083        {
1084            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
1085            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
1086        }
1087    }
1088   
1089    RBWSSAIdMap cacheSecPoints;
1090    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
1091                cblocksToCache.count(nextBlock)>=2;
1092   
1093    //std::stack<CallStackEntry> callStack = prevCallStack;
1094    // traverse by graph from next block
1095    std::deque<FlowStackEntry2> flowStack;
1096    flowStack.push_back({ nextBlock, 0 });
1097    CBlockBitPool visited(codeBlocks.size(), false);
1098   
1099    // already read in current path
1100    // key - vreg, value - source block where vreg of conflict found
1101    std::unordered_map<AsmSingleVReg, BlockIndex> alreadyReadMap;
1102   
1103    while (!flowStack.empty())
1104    {
1105        FlowStackEntry2& entry = flowStack.back();
1106        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1107       
1108        if (entry.nextIndex == 0)
1109        {
1110            // process current block
1111            if (!visited[entry.blockIndex])
1112            {
1113                visited[entry.blockIndex] = true;
1114                std::cout << "  resolv: " << entry.blockIndex << std::endl;
1115               
1116                const RBWSSAIdMap* resSecondPoints =
1117                        resSecondPointsCache.use(entry.blockIndex);
1118                if (resSecondPoints == nullptr)
1119                    for (auto& sentry: cblock.ssaInfoMap)
1120                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
1121                                alreadyReadMap, entry, sentry,
1122                                toCache ? &cacheSecPoints : nullptr);
1123                else // to use cache
1124                {
1125                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
1126                            resSecondPoints, entry.blockIndex,
1127                            toCache ? &cacheSecPoints : nullptr);
1128                    flowStack.pop_back();
1129                    continue;
1130                }
1131            }
1132            else
1133            {
1134                cblocksToCache.increase(entry.blockIndex);
1135                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1136                            cblocksToCache.count(entry.blockIndex) << std::endl;
1137                // back, already visited
1138                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1139                flowStack.pop_back();
1140                continue;
1141            }
1142        }
1143       
1144        if (entry.nextIndex < cblock.nexts.size())
1145        {
1146            flowStack.push_back({ { cblock.nexts[entry.nextIndex].block,
1147                        entry.blockIndex.pass }, 0 });
1148            entry.nextIndex++;
1149        }
1150        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1151                // if have any call then go to next block
1152                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1153                 !cblock.haveReturn && !cblock.haveEnd)
1154        {
1155            // add toResolveMap ssaIds inside called routines
1156            for (const auto& next: cblock.nexts)
1157                if (next.isCall)
1158                {
1159                    const RoutineData& rdata = routineMap.find(next.block)->second;
1160                    for (const auto& v: rdata.rbwSSAIdMap)
1161                        alreadyReadMap.insert({v.first, entry.blockIndex });
1162                    for (const auto& v: rdata.lastSSAIdMap)
1163                        alreadyReadMap.insert({v.first, entry.blockIndex });
1164                }
1165           
1166            flowStack.push_back({ entry.blockIndex+1, 0 });
1167            entry.nextIndex++;
1168        }
1169        else // back
1170        {
1171            // remove old to resolve in leaved way to allow collecting next ssaId
1172            // before write (can be different due to earlier visit)
1173            for (const auto& next: cblock.nexts)
1174                if (next.isCall)
1175                {
1176                    const RoutineData& rdata = routineMap.find(next.block)->second;
1177                    for (const auto& v: rdata.rbwSSAIdMap)
1178                    {
1179                        auto it = alreadyReadMap.find(v.first);
1180                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1181                            alreadyReadMap.erase(it);
1182                    }
1183                    for (const auto& v: rdata.lastSSAIdMap)
1184                    {
1185                        auto it = alreadyReadMap.find(v.first);
1186                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1187                            alreadyReadMap.erase(it);
1188                    }
1189                }
1190           
1191            for (const auto& sentry: cblock.ssaInfoMap)
1192            {
1193                auto it = alreadyReadMap.find(sentry.first);
1194                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1195                    // remove old to resolve in leaved way to allow collecting next ssaId
1196                    // before write (can be different due to earlier visit)
1197                    alreadyReadMap.erase(it);
1198            }
1199            std::cout << "  popresolv" << std::endl;
1200           
1201            if (cblocksToCache.count(entry.blockIndex)==2 &&
1202                !resSecondPointsCache.hasKey(entry.blockIndex))
1203                // add to cache
1204                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1205                            entry.blockIndex);
1206           
1207            flowStack.pop_back();
1208        }
1209    }
1210   
1211    if (toCache)
1212        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1213}
1214
1215// join ret SSAId Map - src - last SSAIdMap from called routine
1216static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1217                BlockIndex routineBlock)
1218{
1219    for (const auto& entry: src)
1220    {
1221        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1222                cxuint(entry.first.index) << ":";
1223        for (size_t v: entry.second)
1224            std::cout << " " << v;
1225        std::cout << std::endl;
1226        // insert if not inserted
1227        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1228        if (res.second)
1229            continue; // added new
1230        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1231        res.first->second.routines.push_back(routineBlock);
1232        // add new ways
1233        for (size_t ssaId: entry.second)
1234            destEntry.insertValue(ssaId);
1235        std::cout << "    :";
1236        for (size_t v: destEntry)
1237            std::cout << " " << v;
1238        std::cout << std::endl;
1239    }
1240}
1241
1242// simple join last ssaid map
1243static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1244{
1245    for (const auto& entry: src)
1246    {
1247        std::cout << "  entry: " << entry.first.regVar << ":" <<
1248                cxuint(entry.first.index) << ":";
1249        for (size_t v: entry.second)
1250            std::cout << " " << v;
1251        std::cout << std::endl;
1252        auto res = dest.insert(entry); // find
1253        if (res.second)
1254            continue; // added new
1255        VectorSet<size_t>& destEntry = res.first->second;
1256        // add new ways
1257        for (size_t ssaId: entry.second)
1258            destEntry.insertValue(ssaId);
1259        std::cout << "    :";
1260        for (size_t v: destEntry)
1261            std::cout << " " << v;
1262        std::cout << std::endl;
1263    }
1264}
1265
1266// join last SSAIdMap of the routine including later routine call
1267// dest - dest last SSAId map, src - source lastSSAIdMap
1268// laterRdatas - data of subroutine/routine exeuted after src lastSSAIdMap state
1269static void joinLastSSAIdMapInt(LastSSAIdMap& dest, const LastSSAIdMap& src,
1270                    const LastSSAIdMap& laterRdataCurSSAIdMap,
1271                    const LastSSAIdMap& laterRdataLastSSAIdMap, bool loop)
1272{
1273    for (const auto& entry: src)
1274    {
1275        auto lsit = laterRdataLastSSAIdMap.find(entry.first);
1276        if (lsit != laterRdataLastSSAIdMap.end())
1277        {
1278            auto csit = laterRdataCurSSAIdMap.find(entry.first);
1279            if (csit != laterRdataCurSSAIdMap.end() && !csit->second.empty())
1280            {
1281                // if found in last ssa ID map,
1282                // but has first value (some way do not change SSAId)
1283                // then pass to add new ssaIds before this point
1284                if (!lsit->second.hasValue(csit->second[0]))
1285                    continue; // otherwise, skip
1286            }
1287        }
1288        std::cout << "  entry: " << entry.first.regVar << ":" <<
1289                cxuint(entry.first.index) << ":";
1290        for (size_t v: entry.second)
1291            std::cout << " " << v;
1292        std::cout << std::endl;
1293        auto res = dest.insert(entry); // find
1294        if (res.second)
1295            continue; // added new
1296        VectorSet<size_t>& destEntry = res.first->second;
1297        // add new ways
1298        for (size_t ssaId: entry.second)
1299            destEntry.insertValue(ssaId);
1300        std::cout << "    :";
1301        for (size_t v: destEntry)
1302            std::cout << " " << v;
1303        std::cout << std::endl;
1304    }
1305    if (!loop) // do not if loop
1306        joinLastSSAIdMap(dest, laterRdataLastSSAIdMap);
1307}
1308
1309static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1310                    const RoutineData& laterRdata, bool loop = false)
1311{
1312    joinLastSSAIdMapInt(dest, src, laterRdata.curSSAIdMap, laterRdata.lastSSAIdMap, loop);
1313}
1314
1315
1316// join routine data from child call with data from parent routine
1317// (just join child call from parent)
1318static void joinRoutineData(RoutineData& dest, const RoutineData& src,
1319            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1320            bool notFirstReturn)
1321{
1322    // insert readBeforeWrite only if doesnt exists in destination
1323    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1324   
1325    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1326   
1327    for (const auto& entry: src.lastSSAIdMap)
1328    {
1329        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1330                cxuint(entry.first.index) << ":";
1331        for (size_t v: entry.second)
1332            std::cout << " " << v;
1333        std::cout << std::endl;
1334        auto res = dest.curSSAIdMap.insert(entry); // find
1335        VectorSet<size_t>& destEntry = res.first->second;
1336       
1337        if (!res.second)
1338        {
1339            // add new ways
1340            for (size_t ssaId: entry.second)
1341                destEntry.insertValue(ssaId);
1342        }
1343        else if (notFirstReturn)
1344        {
1345            auto csit = curSSAIdMap.find(entry.first);
1346            // insert to lastSSAIdMap if no ssaIds for regvar in lastSSAIdMap
1347            dest.lastSSAIdMap.insert({ entry.first,
1348                        { (csit!=curSSAIdMap.end() ? csit->second : 1)-1 } });
1349        }
1350       
1351        std::cout << "    :";
1352        for (size_t v: destEntry)
1353            std::cout << " " << v;
1354        std::cout << std::endl;
1355    }
1356}
1357
1358// reduce retSSAIds for calls (for all read before write SSAIds for current code block)
1359static void reduceSSAIdsForCalls(FlowStackEntry& entry,
1360            const std::vector<CodeBlock>& codeBlocks,
1361            RetSSAIdMap& retSSAIdMap, RoutineMap& routineMap,
1362            SSAReplacesMap& ssaReplacesMap)
1363{
1364    if (retSSAIdMap.empty())
1365        return;
1366    LastSSAIdMap rbwSSAIdMap;
1367    std::unordered_set<AsmSingleVReg> reduced;
1368    std::unordered_set<AsmSingleVReg> changed;
1369    const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1370    // collect rbw SSAIds
1371    for (const NextBlock next: cblock.nexts)
1372        if (next.isCall)
1373        {
1374            auto it = routineMap.find(next.block); // must find
1375            for (const auto& rentry: it->second.rbwSSAIdMap)
1376                rbwSSAIdMap.insertSSAId(rentry.first,rentry.second);
1377           
1378        }
1379    for (const NextBlock next: cblock.nexts)
1380        if (next.isCall)
1381        {
1382            auto it = routineMap.find(next.block); // must find
1383            // add changed
1384            for (const auto& lentry: it->second.lastSSAIdMap)
1385                if (rbwSSAIdMap.find(lentry.first) == rbwSSAIdMap.end())
1386                    changed.insert(lentry.first);
1387        }
1388   
1389    // reduce SSAIds
1390    for (const auto& rentry: retSSAIdMap)
1391    {
1392        auto ssaIdsIt = rbwSSAIdMap.find(rentry.first);
1393        if (ssaIdsIt != rbwSSAIdMap.end())
1394        {
1395            const VectorSet<size_t>& ssaIds = ssaIdsIt->second;
1396            const VectorSet<size_t>& rssaIds = rentry.second.ssaIds;
1397            Array<size_t> outSSAIds(ssaIds.size() + rssaIds.size());
1398            std::copy(rssaIds.begin(), rssaIds.end(), outSSAIds.begin());
1399            std::copy(ssaIds.begin(), ssaIds.end(), outSSAIds.begin()+rssaIds.size());
1400           
1401            std::sort(outSSAIds.begin(), outSSAIds.end());
1402            outSSAIds.resize(std::unique(outSSAIds.begin(), outSSAIds.end()) -
1403                        outSSAIds.begin());
1404            size_t minSSAId = outSSAIds.front();
1405            if (outSSAIds.size() >= 2)
1406            {
1407                for (auto sit = outSSAIds.begin()+1; sit != outSSAIds.end(); ++sit)
1408                    insertReplace(ssaReplacesMap, rentry.first, *sit, minSSAId);
1409               
1410                std::cout << "calls retssa ssaid: " << rentry.first.regVar << ":" <<
1411                        rentry.first.index << std::endl;
1412            }
1413           
1414            for (BlockIndex rblock: rentry.second.routines)
1415                routineMap.find(rblock)->second.lastSSAIdMap[rentry.first] =
1416                            VectorSet<size_t>({ minSSAId });
1417            reduced.insert(rentry.first);
1418        }
1419    }
1420    for (const AsmSingleVReg& vreg: reduced)
1421        retSSAIdMap.erase(vreg);
1422    reduced.clear();
1423       
1424    for (const AsmSingleVReg& vreg: changed)
1425    {
1426        auto rit = retSSAIdMap.find(vreg);
1427        if (rit != retSSAIdMap.end())
1428        {
1429            // if modified
1430            // put before removing to revert for other ways after calls
1431            auto res = entry.prevRetSSAIdSets.insert(*rit);
1432            if (res.second)
1433                res.first->second = rit->second;
1434            // just remove, if some change without read before
1435            retSSAIdMap.erase(rit);
1436        }
1437    }
1438}
1439
1440static void reduceSSAIds2(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1441            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, const SSAEntry& ssaEntry)
1442{
1443    const SSAInfo& sinfo = ssaEntry.second;
1444    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1445    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1446    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1447    {
1448        auto& ssaIds = ssaIdsIt->second.ssaIds;
1449        ssaId = ssaIds.front()+1; // plus one
1450        retSSAIdMap.erase(ssaIdsIt);
1451    }
1452    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1453    {
1454        // put before removing to revert for other ways after calls
1455        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1456        if (res.second)
1457            res.first->second = ssaIdsIt->second;
1458        // just remove, if some change without read before
1459        retSSAIdMap.erase(ssaIdsIt);
1460    }
1461}
1462
1463// reduce retSSAIds (last SSAIds for regvar) while passing by code block
1464// and emits SSA replaces for these ssaids
1465static bool reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1466            RetSSAIdMap& retSSAIdMap, RoutineMap& routineMap,
1467            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
1468{
1469    SSAInfo& sinfo = ssaEntry.second;
1470    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1471    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1472    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1473    {
1474        auto& ssaIds = ssaIdsIt->second.ssaIds;
1475       
1476        if (sinfo.ssaId != SIZE_MAX)
1477        {
1478            VectorSet<size_t> outSSAIds = ssaIds;
1479            outSSAIds.insertValue(ssaId-1); // ???
1480            // already set
1481            if (outSSAIds.size() >= 1)
1482            {
1483                // reduce to minimal ssaId from all calls
1484                std::sort(outSSAIds.begin(), outSSAIds.end());
1485                outSSAIds.resize(std::unique(outSSAIds.begin(), outSSAIds.end()) -
1486                            outSSAIds.begin());
1487                // insert SSA replaces
1488                if (outSSAIds.size() >= 2)
1489                {
1490                    size_t minSSAId = outSSAIds.front();
1491                    for (auto sit = outSSAIds.begin()+1; sit != outSSAIds.end(); ++sit)
1492                        insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1493                }
1494            }
1495        }
1496        else if (ssaIds.size() >= 2)
1497        {
1498            // reduce to minimal ssaId from all calls
1499            std::sort(ssaIds.begin(), ssaIds.end());
1500            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1501            // insert SSA replaces
1502            size_t minSSAId = ssaIds.front();
1503            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1504                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1505            ssaId = minSSAId+1; // plus one
1506        }
1507        else if (ssaIds.size() == 1)
1508            ssaId = ssaIds.front()+1; // plus one
1509       
1510        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1511                ssaEntry.first.index << ": " << ssaId << std::endl;
1512        // replace smallest ssaId in routineMap lastSSAId entry
1513        // reduce SSAIds replaces
1514        for (BlockIndex rblock: ssaIdsIt->second.routines)
1515        {
1516            RoutineData& rdata = routineMap.find(rblock)->second;
1517            size_t rbwRetSSAId = SIZE_MAX;
1518            auto rbwIt = rdata.rbwSSAIdMap.find(ssaEntry.first);
1519            auto rlsit = rdata.lastSSAIdMap.find(ssaEntry.first);
1520            if (rbwIt != rdata.rbwSSAIdMap.end() && rlsit->second.hasValue(rbwIt->second))
1521                rbwRetSSAId = rbwIt->second;
1522            rlsit->second = VectorSet<size_t>({ ssaId-1 });
1523            if (rbwRetSSAId != SIZE_MAX)
1524            {
1525                std::cout << "  keep retSSAId rbw: " << rbwRetSSAId << std::endl;
1526                // add retSSAId without changes (in way without regvar changes)
1527                rlsit->second.insertValue(rbwRetSSAId);
1528            }
1529        }
1530        // finally remove from container (because obsolete)
1531        retSSAIdMap.erase(ssaIdsIt);
1532        return true;
1533    }
1534    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1535    {
1536        // put before removing to revert for other ways after calls
1537        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1538        if (res.second)
1539            res.first->second = ssaIdsIt->second;
1540        // just remove, if some change without read before
1541        retSSAIdMap.erase(ssaIdsIt);
1542    }
1543    return false;
1544}
1545
1546// update single current SSAId for routine and optionally lastSSAIdMap if returns
1547// has been encountered but not regvar
1548static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1549                size_t prevSSAId)
1550{
1551    const SSAInfo& sinfo = ssaEntry.second;
1552    bool beforeFirstAccess = true;
1553    // put first SSAId before write
1554    if (sinfo.readBeforeWrite)
1555    {
1556        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1557        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1558            // if already added
1559            beforeFirstAccess = false;
1560    }
1561   
1562    if (sinfo.ssaIdChange != 0)
1563    {
1564        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1565        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1566        // put last SSAId
1567        if (!res.second)
1568        {
1569            beforeFirstAccess = false;
1570            // if not inserted
1571            VectorSet<size_t>& ssaIds = res.first->second;
1572            ssaIds.clear(); // clear all ssaIds in currentSSAID entry
1573            ssaIds.insertValue(sinfo.ssaIdLast);
1574        }
1575        // add readbefore if in previous returns if not added yet
1576        if (rdata.notFirstReturn && beforeFirstAccess)
1577        {
1578            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1579            for (auto& loopEnd: rdata.loopEnds)
1580                loopEnd.second.ssaIdMap.insert({ ssaEntry.first, { prevSSAId } });
1581        }
1582    }
1583    else
1584    {
1585        // insert read ssaid if no change
1586        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1587        if (!res.second)
1588        {
1589            VectorSet<size_t>& ssaIds = res.first->second;
1590            ssaIds.insertValue(prevSSAId);
1591        }
1592    }
1593}
1594
1595static void initializePrevRetSSAIds(
1596            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1597            const RetSSAIdMap& retSSAIdMap, const RoutineData& rdata,
1598            FlowStackEntry& entry)
1599{
1600    for (const auto& v: rdata.lastSSAIdMap)
1601    {
1602        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1603        if (!res.second)
1604            continue; // already added, do not change
1605        auto rfit = retSSAIdMap.find(v.first);
1606        if (rfit != retSSAIdMap.end())
1607            res.first->second = rfit->second;
1608       
1609        auto csit = curSSAIdMap.find(v.first);
1610        res.first->second.prevSSAId = (csit!=curSSAIdMap.end() ? csit->second : 1);
1611    }
1612}
1613
1614// revert retSSAIdMap while leaving from code block
1615static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1616            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1617{
1618    // revert retSSAIdMap
1619    for (auto v: entry.prevRetSSAIdSets)
1620    {
1621        auto rfit = retSSAIdMap.find(v.first);
1622        if (rdata!=nullptr && rfit != retSSAIdMap.end())
1623        {
1624            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1625            for (size_t ssaId: rfit->second.ssaIds)
1626                ssaIds.eraseValue(ssaId);
1627        }
1628       
1629        if (!v.second.ssaIds.empty())
1630        {
1631            // just add if previously present
1632            if (rfit != retSSAIdMap.end())
1633                rfit->second = v.second;
1634            else
1635                retSSAIdMap.insert(v);
1636        }
1637        else // erase if empty
1638            retSSAIdMap.erase(v.first);
1639       
1640        size_t oldSSAId = curSSAIdMap[v.first]-1;
1641        curSSAIdMap[v.first] = v.second.prevSSAId;
1642        if (rdata!=nullptr)
1643        {
1644            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1645            ssaIds.eraseValue(oldSSAId); // ??? need extra constraints
1646            for (size_t ssaId: v.second.ssaIds)
1647                ssaIds.insertValue(ssaId);
1648            if (v.second.ssaIds.empty())
1649            {
1650                auto cit = curSSAIdMap.find(v.first);
1651                ssaIds.insertValue((cit!=curSSAIdMap.end() ? cit->second : 1)-1);
1652            }
1653           
1654            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1655                    v.first.regVar << ":" << v.first.index << ":";
1656            for (size_t v: ssaIds)
1657                std::cout << " " << v;
1658            std::cout << std::endl;
1659        }
1660    }
1661}
1662
1663// update current SSAId in curSSAIdMap for routine while leaving from code block
1664static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1665            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1666{
1667    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1668    std::cout << " pushentry " << entry.blockIndex << ": " <<
1669                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1670    for (size_t v: ssaIds)
1671        std::cout << " " << v;
1672    std::cout << std::endl;
1673   
1674    // if cblock with some children
1675    if (nextSSAId != curSSAId)
1676        ssaIds.eraseValue(nextSSAId-1);
1677   
1678    // push previous SSAId to lastSSAIdMap (later will be replaced)
1679    ssaIds.insertValue(curSSAId-1);
1680   
1681    std::cout << " popentry " << entry.blockIndex << ": " <<
1682                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1683    for (size_t v: ssaIds)
1684        std::cout << " " << v;
1685    std::cout << std::endl;
1686}
1687
1688static bool tryAddLoopEnd(const FlowStackEntry& entry, BlockIndex routineBlock,
1689                RoutineData& rdata, bool isLoop, bool noMainLoop)
1690{
1691    if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1692    {
1693        // handle loops
1694        std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1695        // add to routine data loopEnds
1696        auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1697        if (loopsit2 != rdata.loopEnds.end())
1698        {
1699            if (!loopsit2->second.passed)
1700                // still in loop join ssaid map
1701                joinLastSSAIdMap(loopsit2->second.ssaIdMap, rdata.curSSAIdMap);
1702        }
1703        else
1704            rdata.loopEnds.insert({ entry.blockIndex, { rdata.curSSAIdMap, false } });
1705        return true;
1706    }
1707    return false;
1708}
1709
1710
1711// TODO: fix curSSAIdMap between recursive call returns
1712static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1713        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1714        const std::unordered_set<BlockIndex>& loopBlocks,
1715        const std::unordered_set<BlockIndex>& callBlocks,
1716        const ResSecondPointsToCache& subroutToCache,
1717        SimpleCache<BlockIndex, RoutineData>& subroutinesCache,
1718        const RoutineMap& routineMap, RoutineData& rdata,
1719        BlockIndex routineBlock, bool noMainLoop = false,
1720        const CBlockBitPool& prevFlowStackBlocks = {})
1721{
1722    std::cout << "--------- createRoutineData ----------------\n";
1723    CBlockBitPool visited(codeBlocks.size(), false);
1724   
1725    VectorSet<BlockIndex> activeLoops;
1726    SubrLoopsMap subrLoopsMap;
1727    SubrLoopsMap loopSubrsMap;
1728    RoutineMap subrDataForLoopMap;
1729    std::deque<FlowStackEntry> flowStack;
1730    CBlockBitPool flowStackBlocks(codeBlocks.size(), false);
1731    if (!prevFlowStackBlocks.empty())
1732        flowStackBlocks = prevFlowStackBlocks;
1733    // last SSA ids map from returns
1734    RetSSAIdMap retSSAIdMap;
1735    flowStack.push_back({ routineBlock, 0 });
1736    flowStackBlocks[routineBlock] = true;
1737   
1738    while (!flowStack.empty())
1739    {
1740        FlowStackEntry& entry = flowStack.back();
1741        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1742       
1743        std::cout << ":: rdata.curSSAIdMap #" << entry.blockIndex << "\n";
1744        for (const auto& v: rdata.curSSAIdMap)
1745        {
1746            std::cout << "  :: " << v.first.regVar << ":" << v.first.index << ":";
1747            for (size_t ssaId: v.second)
1748                std::cout << " " << ssaId;
1749            std::cout << "\n";
1750        }
1751       
1752        auto addSubroutine = [&](
1753            std::unordered_map<BlockIndex, LoopSSAIdMap>::const_iterator loopsit2,
1754            bool applyToMainRoutine)
1755        {
1756            if (subroutinesCache.hasKey(entry.blockIndex))
1757            {
1758                // if already put, just applyToMainRoutine if needed
1759                if (applyToMainRoutine &&
1760                    loopBlocks.find(entry.blockIndex) != loopBlocks.end() &&
1761                    loopsit2 != rdata.loopEnds.end())
1762                {
1763                    RoutineData* subRdata = subroutinesCache.use(entry.blockIndex);
1764                    joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1765                                        *subRdata, true);
1766                }
1767                return;
1768            }
1769           
1770            RoutineData subrData;
1771            const bool oldFB = flowStackBlocks[entry.blockIndex];
1772            flowStackBlocks[entry.blockIndex] = !oldFB;
1773            createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, callBlocks,
1774                    subroutToCache, subroutinesCache, routineMap, subrData,
1775                    entry.blockIndex, true, flowStackBlocks);
1776            RoutineData subrDataCopy;
1777            flowStackBlocks[entry.blockIndex] = oldFB;
1778           
1779            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1780            {   // leave from loop point
1781                std::cout << "   loopfound " << entry.blockIndex << std::endl;
1782                if (loopsit2 != rdata.loopEnds.end())
1783                {
1784                    subrDataCopy = subrData;
1785                    subrDataForLoopMap.insert({ entry.blockIndex, subrDataCopy });
1786                    std::cout << "   loopssaId2Map: " <<
1787                            entry.blockIndex << std::endl;
1788                    joinLastSSAIdMap(subrData.lastSSAIdMap,
1789                            loopsit2->second.ssaIdMap, subrData, true);
1790                    std::cout << "   loopssaIdMap2End: " << std::endl;
1791                    if (applyToMainRoutine)
1792                        joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1793                                        subrDataCopy, true);
1794                }
1795            }
1796           
1797            // apply loop to subroutines
1798            auto it = loopSubrsMap.find(entry.blockIndex);
1799            if (it != loopSubrsMap.end())
1800            {
1801                std::cout << "    found loopsubrsmap: " << entry.blockIndex << ":";
1802                for (BlockIndex subr: it->second)
1803                {
1804                    std::cout << " " << subr;
1805                    RoutineData* subrData2 = subroutinesCache.use(subr);
1806                    if (subrData2 == nullptr)
1807                        continue;
1808                    RoutineData subrData2Copy = *subrData2;
1809                    std::cout << "*";
1810                    joinLastSSAIdMap(subrData2Copy.lastSSAIdMap,
1811                            loopsit2->second.ssaIdMap, subrDataCopy, false);
1812                    // reinsert subroutine into subroutine cache
1813                    subrData2Copy.calculateWeight();
1814                    subroutinesCache.put(subr, subrData2Copy);
1815                }
1816                std::cout << "\n";
1817            }
1818            // apply loops to this subroutine
1819            auto it2 = subrLoopsMap.find(entry.blockIndex);
1820            if (it2 != subrLoopsMap.end())
1821            {
1822                std::cout << "    found subrloopsmap: " << entry.blockIndex << ":";
1823                for (auto lit2 = it2->second.rbegin(); lit2 != it2->second.rend(); ++lit2)
1824                {
1825                    BlockIndex loop = *lit2;
1826                    auto loopsit3 = rdata.loopEnds.find(loop);
1827                    if (loopsit3 == rdata.loopEnds.end() ||
1828                        activeLoops.hasValue(loop))
1829                        continue;
1830                    std::cout << " " << loop;
1831                    auto  itx = subrDataForLoopMap.find(loop);
1832                    if (itx != subrDataForLoopMap.end())
1833                        joinLastSSAIdMap(subrData.lastSSAIdMap,
1834                                loopsit3->second.ssaIdMap, itx->second, false);
1835                }
1836                std::cout << "\n";
1837            }
1838           
1839            subrData.calculateWeight();
1840            subroutinesCache.put(entry.blockIndex, subrData);
1841        };
1842       
1843        if (entry.nextIndex == 0)
1844        {
1845            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1846           
1847            if (!prevFlowStackBlocks.empty() && prevFlowStackBlocks[entry.blockIndex])
1848            {
1849                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1850               
1851                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1852                flowStack.pop_back();
1853                continue;
1854            }
1855           
1856            // process current block
1857            //if (/*cachedRdata != nullptr &&*/
1858                //visited[entry.blockIndex] && flowStack.size() > 1)
1859            const RoutineData* cachedRdata = nullptr;
1860           
1861            if (routineBlock != entry.blockIndex)
1862            {
1863                cachedRdata = subroutinesCache.use(entry.blockIndex);
1864                if (cachedRdata == nullptr)
1865                {
1866                    // try in routine map
1867                    auto rit = routineMap.find(entry.blockIndex);
1868                    if (rit != routineMap.end())
1869                        cachedRdata = &rit->second;
1870                }
1871                if (!isLoop && visited[entry.blockIndex] && cachedRdata == nullptr &&
1872                    subroutToCache.count(entry.blockIndex)!=0)
1873                {
1874                    auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1875                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1876                    addSubroutine(loopsit2, false);
1877                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1878                }
1879            }
1880           
1881            if (cachedRdata != nullptr)
1882            {
1883                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1884                std::cout << "procret2: " << entry.blockIndex << std::endl;
1885                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1886                // get not given rdata curSSAIdMap ssaIds but present in cachedRdata
1887                // curSSAIdMap
1888                for (const auto& entry: cachedRdata->curSSAIdMap)
1889                    if (rdata.curSSAIdMap.find(entry.first) == rdata.curSSAIdMap.end())
1890                    {
1891                        auto cit = curSSAIdMap.find(entry.first);
1892                        size_t prevSSAId = (cit!=curSSAIdMap.end() ? cit->second : 1)-1;
1893                        rdata.curSSAIdMap.insert({ entry.first, { prevSSAId } });
1894                       
1895                        if (rdata.notFirstReturn)
1896                        {
1897                            rdata.lastSSAIdMap.insertSSAId(entry.first, prevSSAId);
1898                            for (auto& loopEnd: rdata.loopEnds)
1899                                loopEnd.second.ssaIdMap.
1900                                        insertSSAId(entry.first, prevSSAId);
1901                        }
1902                    }
1903               
1904                // join loopEnds
1905                for (const auto& loopEnd: cachedRdata->loopEnds)
1906                {
1907                    auto res = rdata.loopEnds.insert({ loopEnd.first, LoopSSAIdMap{} });
1908                    // true - do not add cached rdata loopend, because it was added
1909                    joinLastSSAIdMapInt(res.first->second.ssaIdMap, rdata.curSSAIdMap,
1910                                cachedRdata->curSSAIdMap, loopEnd.second.ssaIdMap, true);
1911                }
1912                std::cout << "procretend2" << std::endl;
1913                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1914                flowStack.pop_back();
1915                continue;
1916            }
1917            else if (!visited[entry.blockIndex])
1918            {
1919                // set up loops for which subroutine is present
1920                if (subroutToCache.count(entry.blockIndex)!=0 && !activeLoops.empty())
1921                {
1922                    subrLoopsMap.insert({ entry.blockIndex, activeLoops });
1923                    for (BlockIndex loop: activeLoops)
1924                    {
1925                        auto res = loopSubrsMap.insert({ loop, { entry.blockIndex } });
1926                        if (!res.second)
1927                            res.first->second.insertValue(entry.blockIndex);
1928                    }
1929                }
1930               
1931                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1932                    activeLoops.insertValue(entry.blockIndex);
1933                std::cout << "proc: " << entry.blockIndex << std::endl;
1934                visited[entry.blockIndex] = true;
1935               
1936                for (const auto& ssaEntry: cblock.ssaInfoMap)
1937                    if (ssaEntry.first.regVar != nullptr)
1938                    {
1939                        reduceSSAIds2(curSSAIdMap, retSSAIdMap, entry, ssaEntry);
1940                        // put data to routine data
1941                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1942                       
1943                        if (ssaEntry.second.ssaIdChange!=0)
1944                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1945                    }
1946            }
1947            else
1948            {
1949                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1950                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1951                flowStack.pop_back();
1952                continue;
1953            }
1954        }
1955       
1956        // join and skip calls
1957        {
1958            std::vector<BlockIndex> calledRoutines;
1959            for (; entry.nextIndex < cblock.nexts.size() &&
1960                        cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1961            {
1962                BlockIndex rblock = cblock.nexts[entry.nextIndex].block;
1963                if (callBlocks.find(rblock) != callBlocks.end())
1964                    rblock.pass = 1;
1965                if (rblock != routineBlock)
1966                    calledRoutines.push_back(rblock);
1967            }
1968           
1969            if (!calledRoutines.empty())
1970            {
1971                // toNotClear - regvar to no keep (because is used in called routines)
1972                std::unordered_set<AsmSingleVReg> toNotClear;
1973                // if regvar any called routine (used)
1974                std::unordered_set<AsmSingleVReg> allInCalls;
1975                for (BlockIndex rblock: calledRoutines)
1976                {
1977                    const RoutineData& srcRdata = routineMap.find(rblock)->second;
1978                    for (const auto& rbw: srcRdata.rbwSSAIdMap)
1979                    {
1980                        allInCalls.insert(rbw.first);
1981                        auto lsit = srcRdata.lastSSAIdMap.find(rbw.first);
1982                        if (lsit != srcRdata.lastSSAIdMap.end() &&
1983                             lsit->second.hasValue(rbw.second))
1984                            // if returned not modified, then do not clear this regvar
1985                            toNotClear.insert(rbw.first);
1986                    }
1987                    for (const auto& rbw: srcRdata.lastSSAIdMap)
1988                        allInCalls.insert(rbw.first);
1989                }
1990                for (auto& entry: rdata.curSSAIdMap)
1991                    // if any called routine and if to clear
1992                    if (allInCalls.find(entry.first) != allInCalls.end() &&
1993                        toNotClear.find(entry.first) == toNotClear.end())
1994                        // not found
1995                        entry.second.clear();
1996            }
1997           
1998            for (BlockIndex rblock: calledRoutines)
1999                joinRoutineData(rdata, routineMap.find(rblock)->second,
2000                                curSSAIdMap, rdata.notFirstReturn);
2001        }
2002       
2003        if (entry.nextIndex < cblock.nexts.size())
2004        {
2005            const BlockIndex nextBlock = { cblock.nexts[entry.nextIndex].block,
2006                        entry.blockIndex.pass };
2007            flowStack.push_back({ nextBlock, 0 });
2008            // negate - if true (already in flowstack, then popping keep this state)
2009            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
2010            entry.nextIndex++;
2011        }
2012        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2013                // if have any call then go to next block
2014                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2015                 !cblock.haveReturn && !cblock.haveEnd)
2016        {
2017            if (entry.nextIndex!=0) // if back from calls (just return from calls)
2018            {
2019                for (const NextBlock& next: cblock.nexts)
2020                    if (next.isCall)
2021                    {
2022                        //std::cout << "joincall:"<< next.block << std::endl;
2023                        BlockIndex rblock(next.block, entry.blockIndex.pass);
2024                        if (callBlocks.find(next.block) != callBlocks.end())
2025                            rblock.pass = 1;
2026                        auto it = routineMap.find(rblock); // must find
2027                        initializePrevRetSSAIds(curSSAIdMap, retSSAIdMap,
2028                                    it->second, entry);
2029                       
2030                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, rblock);
2031                    }
2032            }
2033            const BlockIndex nextBlock = entry.blockIndex+1;
2034            flowStack.push_back({ nextBlock, 0 });
2035            // negate - if true (already in flowstack, then popping keep this state)
2036            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
2037            entry.nextIndex++;
2038        }
2039        else
2040        {
2041            std::cout << "popstart: " << entry.blockIndex << std::endl;
2042            if (cblock.haveReturn)
2043            {
2044                std::cout << "procret: " << entry.blockIndex << std::endl;
2045                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
2046                std::cout << "procretend" << std::endl;
2047                rdata.notFirstReturn = true;
2048            }
2049           
2050            // revert retSSAIdMap
2051            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
2052            //
2053           
2054            for (const auto& ssaEntry: cblock.ssaInfoMap)
2055            {
2056                if (ssaEntry.first.regVar == nullptr)
2057                    continue;
2058                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
2059                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
2060                    ssaEntry.second.ssaIdLast+1 : curSSAId;
2061                curSSAIdMap[ssaEntry.first] = curSSAId;
2062               
2063                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2064                            ":" << ssaEntry.first.index << ": " <<
2065                            nextSSAId << ", " << curSSAId << std::endl;
2066               
2067                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
2068            }
2069           
2070            activeLoops.eraseValue(entry.blockIndex);
2071           
2072            auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
2073            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
2074            {
2075                if (loopsit2 != rdata.loopEnds.end())
2076                {
2077                    std::cout << "   mark loopblocks passed: " <<
2078                                entry.blockIndex << std::endl;
2079                    // mark that loop has passed fully
2080                    loopsit2->second.passed = true;
2081                }
2082                else
2083                    std::cout << "   loopblocks nopassed: " <<
2084                                entry.blockIndex << std::endl;
2085            }
2086           
2087            if ((!noMainLoop || flowStack.size() > 1) &&
2088                subroutToCache.count(entry.blockIndex)!=0)
2089            { //put to cache
2090                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
2091                addSubroutine(loopsit2, true);
2092            }
2093           
2094            flowStackBlocks[entry.blockIndex] = false;
2095            std::cout << "pop: " << entry.blockIndex << std::endl;
2096            flowStack.pop_back();
2097        }
2098    }
2099    std::cout << "--------- createRoutineData end ------------\n";
2100}
2101
2102
2103void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
2104{
2105    if (codeBlocks.empty())
2106        return;
2107    usageHandler.rewind();
2108    auto cbit = codeBlocks.begin();
2109    AsmRegVarUsage rvu;
2110    if (!usageHandler.hasNext())
2111        return; // do nothing if no regusages
2112    rvu = usageHandler.nextUsage();
2113   
2114    cxuint regRanges[MAX_REGTYPES_NUM*2];
2115    cxuint realRegsCount[MAX_REGTYPES_NUM];
2116    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
2117    size_t regTypesNum;
2118    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2119   
2120    while (true)
2121    {
2122        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
2123        {
2124            cbit->usagePos = usageHandler.getReadPos();
2125            ++cbit;
2126        }
2127        if (cbit == codeBlocks.end())
2128            break;
2129        // skip rvu's before codeblock
2130        while (rvu.offset < cbit->start && usageHandler.hasNext())
2131            rvu = usageHandler.nextUsage();
2132        if (rvu.offset < cbit->start)
2133            break;
2134       
2135        cbit->usagePos = usageHandler.getReadPos();
2136        while (rvu.offset < cbit->end)
2137        {
2138            // process rvu
2139            // only if regVar
2140            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2141            {
2142                auto res = cbit->ssaInfoMap.insert(
2143                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
2144               
2145                SSAInfo& sinfo = res.first->second;
2146                if (res.second)
2147                    sinfo.firstPos = rvu.offset;
2148                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
2149                    // if first write RVU instead read RVU
2150                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
2151                    sinfo.readBeforeWrite = true;
2152                /* change SSA id only for write-only regvars -
2153                 *   read-write place can not have two different variables */
2154                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
2155                    sinfo.ssaIdChange++;
2156                if (rvu.regVar==nullptr)
2157                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
2158                            sinfo.ssaId = sinfo.ssaIdLast = 0;
2159            }
2160            // get next rvusage
2161            if (!usageHandler.hasNext())
2162                break;
2163            rvu = usageHandler.nextUsage();
2164        }
2165        ++cbit;
2166    }
2167   
2168    size_t rbwCount = 0;
2169    size_t wrCount = 0;
2170   
2171    SimpleCache<BlockIndex, RoutineData> subroutinesCache(codeBlocks.size()<<3);
2172   
2173    std::deque<CallStackEntry> callStack;
2174    std::deque<FlowStackEntry> flowStack;
2175    // total SSA count
2176    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
2177    // last SSA ids map from returns
2178    RetSSAIdMap retSSAIdMap;
2179    // last SSA ids in current way in code flow
2180    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
2181    // routine map - routine datas map, value - last SSA ids map
2182    RoutineMap routineMap;
2183    // key - current res first key, value - previous first key and its flowStack pos
2184    PrevWaysIndexMap prevWaysIndexMap;
2185    // to track ways last block indices pair: block index, flowStackPos)
2186    std::pair<BlockIndex, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
2187    CBlockBitPool isRoutineGen(codeBlocks.size(), false);
2188   
2189    CBlockBitPool waysToCache(codeBlocks.size(), false);
2190    CBlockBitPool flowStackBlocks(codeBlocks.size(), false);
2191    // subroutToCache - true if given block begin subroutine to cache
2192    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
2193    CBlockBitPool visited(codeBlocks.size(), false);
2194    flowStack.push_back({ 0, 0 });
2195    flowStackBlocks[0] = true;
2196    std::unordered_set<BlockIndex> callBlocks;
2197    std::unordered_set<BlockIndex> loopBlocks;
2198    std::unordered_set<size_t> recurseBlocks;
2199   
2200    std::unordered_map<size_t, std::unordered_map<AsmSingleVReg, size_t> >
2201            curSSAIdMapStateMap;
2202   
2203    while (!flowStack.empty())
2204    {
2205        FlowStackEntry& entry = flowStack.back();
2206        CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
2207       
2208        if (entry.nextIndex == 0)
2209        {
2210            // process current block
2211            if (!visited[entry.blockIndex])
2212            {
2213                std::cout << "proc: " << entry.blockIndex << std::endl;
2214                visited[entry.blockIndex] = true;
2215               
2216                for (auto& ssaEntry: cblock.ssaInfoMap)
2217                {
2218                    // TODO: correct pass by second pass in recursion
2219                    SSAInfo& sinfo = ssaEntry.second;
2220                    if (ssaEntry.first.regVar==nullptr)
2221                    {
2222                        // TODO - pass registers through SSA marking and resolving
2223                        sinfo.ssaIdChange = 0; // zeroing SSA changes
2224                        continue; // no change for registers
2225                    }
2226                   
2227                    if (sinfo.ssaId != SIZE_MAX)
2228                    {
2229                        // already initialized
2230                        reduceSSAIds(curSSAIdMap, retSSAIdMap,
2231                                routineMap, ssaReplacesMap, entry, ssaEntry);
2232                        if (sinfo.ssaIdChange!=0)
2233                            curSSAIdMap[ssaEntry.first] = sinfo.ssaIdLast+1;
2234                       
2235                        // count read before writes (for cache weight)
2236                        if (sinfo.readBeforeWrite)
2237                            rbwCount++;
2238                        if (sinfo.ssaIdChange!=0)
2239                            wrCount++;
2240                        continue;
2241                    }
2242                   
2243                    bool reducedSSAId = reduceSSAIds(curSSAIdMap, retSSAIdMap,
2244                                routineMap, ssaReplacesMap, entry, ssaEntry);
2245                   
2246                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
2247                   
2248                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
2249                    if (totalSSACount == 0)
2250                    {
2251                        // first read before write at all, need change totalcount, ssaId
2252                        ssaId++;
2253                        totalSSACount++;
2254                    }
2255                   
2256                    sinfo.ssaId = totalSSACount;
2257                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
2258                    sinfo.ssaIdBefore = ssaId-1;
2259                   
2260                    totalSSACount += sinfo.ssaIdChange;
2261                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
2262                    //totalSSACount = std::max(totalSSACount, ssaId);
2263                    if (!reducedSSAId || sinfo.ssaIdChange!=0)
2264                        ssaId = totalSSACount;
2265                   
2266                    // count read before writes (for cache weight)
2267                    if (sinfo.readBeforeWrite)
2268                        rbwCount++;
2269                    if (sinfo.ssaIdChange!=0)
2270                        wrCount++;
2271                }
2272            }
2273            else
2274            {
2275                // handle caching for res second point
2276                cblocksToCache.increase(entry.blockIndex);
2277                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
2278                            cblocksToCache.count(entry.blockIndex) << std::endl;
2279                // back, already visited
2280                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
2281                flowStack.pop_back();
2282               
2283                BlockIndex curWayBIndex = flowStack.back().blockIndex;
2284                if (lastCommonCacheWayPoint.first != SIZE_MAX)
2285                {
2286                    // mark point of way to cache (res first point)
2287                    waysToCache[lastCommonCacheWayPoint.first] = true;
2288                    std::cout << "mark to pfcache " <<
2289                            lastCommonCacheWayPoint.first << ", " <<
2290                            curWayBIndex << std::endl;
2291                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
2292                }
2293                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
2294                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
2295                continue;
2296            }
2297        }
2298       
2299        if (!callStack.empty() &&
2300            entry.blockIndex == callStack.back().callBlock &&
2301            entry.nextIndex-1 == callStack.back().callNextIndex)
2302        {
2303            std::cout << " ret: " << entry.blockIndex << std::endl;
2304            const BlockIndex routineBlock = callStack.back().routineBlock;
2305            RoutineData& prevRdata = routineMap.find(routineBlock)->second;
2306            if (!isRoutineGen[routineBlock])
2307            {
2308                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, callBlocks,
2309                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
2310                            routineBlock);
2311                //prevRdata.compare(myRoutineData);
2312                isRoutineGen[routineBlock] = true;
2313               
2314                auto csimsmit = curSSAIdMapStateMap.find(routineBlock.index);
2315                if (csimsmit != curSSAIdMapStateMap.end() && entry.blockIndex.pass==0)
2316                {
2317                    std::cout << " get curSSAIdMap from back recur 2" << std::endl;
2318                    curSSAIdMap = csimsmit->second;
2319                    curSSAIdMapStateMap.erase(csimsmit);
2320                }
2321            }
2322           
2323            callStack.pop_back(); // just return from call
2324            callBlocks.erase(routineBlock);
2325        }
2326       
2327        if (entry.nextIndex < cblock.nexts.size())
2328        {
2329            bool isCall = false;
2330            BlockIndex nextBlock = cblock.nexts[entry.nextIndex].block;
2331            nextBlock.pass = entry.blockIndex.pass;
2332            if (cblock.nexts[entry.nextIndex].isCall)
2333            {
2334                bool nextRecursion = false;
2335                if (!callBlocks.insert(nextBlock).second)
2336                {
2337                    // if already called (then it is recursion)
2338                    nextRecursion = recurseBlocks.insert(nextBlock.index).second;
2339                    if (nextRecursion)
2340                    {
2341                        std::cout << "   -- recursion: " << nextBlock << std::endl;
2342                        nextBlock.pass = 1;
2343                       
2344                        curSSAIdMapStateMap.insert({ nextBlock.index,  curSSAIdMap });
2345                    }
2346                    else
2347                    {
2348                        entry.nextIndex++;
2349                        std::cout << " NO call (rec): " << entry.blockIndex << std::endl;
2350                        continue;
2351                    }
2352                }
2353                else if (entry.blockIndex.pass==1 &&
2354                    recurseBlocks.find(nextBlock.index) != recurseBlocks.end())
2355                {
2356                    entry.nextIndex++;
2357                    std::cout << " NO call (rec)2: " << entry.blockIndex << std::endl;
2358                    continue;
2359                }
2360                std::cout << " call: " << entry.blockIndex << std::endl;
2361                               
2362                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
2363                routineMap.insert({ nextBlock, { } });
2364                isCall = true;
2365            }
2366           
2367            flowStack.push_back({ nextBlock, 0, isCall });
2368            if (flowStackBlocks[nextBlock])
2369            {
2370                if (!cblock.nexts[entry.nextIndex].isCall)
2371                    loopBlocks.insert(nextBlock);
2372                flowStackBlocks[nextBlock] = false; // keep to inserted in popping
2373            }
2374            else
2375                flowStackBlocks[nextBlock] = true;
2376            entry.nextIndex++;
2377        }
2378        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2379                // if have any call then go to next block
2380                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2381                 !cblock.haveReturn && !cblock.haveEnd)
2382        {
2383            if (entry.nextIndex!=0) // if back from calls (just return from calls)
2384            {
2385                reduceSSAIdsForCalls(entry, codeBlocks, retSSAIdMap, routineMap,
2386                                     ssaReplacesMap);
2387                //
2388                for (const NextBlock& next: cblock.nexts)
2389                    if (next.isCall)
2390                    {
2391                        //std::cout << "joincall:"<< next.block << std::endl;
2392                        size_t pass = 0;
2393                        if (callBlocks.find(next.block) != callBlocks.end())
2394                        {
2395                            std::cout << " is secpass: " << entry.blockIndex << " : " <<
2396                                    next.block << std::endl;
2397                            pass = 1; // it ways second pass
2398                        }
2399                       
2400                        auto it = routineMap.find({ next.block, pass }); // must find
2401                        initializePrevRetSSAIds(curSSAIdMap, retSSAIdMap,
2402                                    it->second, entry);
2403                       
2404                        BlockIndex rblock(next.block, entry.blockIndex.pass);
2405                        if (callBlocks.find(next.block) != callBlocks.end())
2406                            rblock.pass = 1;
2407                       
2408                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, rblock);
2409                    }
2410            }
2411            flowStack.push_back({ entry.blockIndex+1, 0, false });
2412            if (flowStackBlocks[entry.blockIndex+1])
2413            {
2414                loopBlocks.insert(entry.blockIndex+1);
2415                 // keep to inserted in popping
2416                flowStackBlocks[entry.blockIndex+1] = false;
2417            }
2418            else
2419                flowStackBlocks[entry.blockIndex+1] = true;
2420            entry.nextIndex++;
2421        }
2422        else // back
2423        {
2424            // revert retSSAIdMap
2425            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, nullptr);
2426            //
2427           
2428            for (const auto& ssaEntry: cblock.ssaInfoMap)
2429            {
2430                if (ssaEntry.first.regVar == nullptr)
2431                    continue;
2432               
2433                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
2434                const size_t nextSSAId = curSSAId;
2435                curSSAId = ssaEntry.second.ssaIdBefore+1;
2436               
2437                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2438                            ":" << ssaEntry.first.index << ": " <<
2439                            nextSSAId << ", " << curSSAId << std::endl;
2440            }
2441           
2442            std::cout << "pop: " << entry.blockIndex << std::endl;
2443            flowStackBlocks[entry.blockIndex] = false;
2444           
2445            if (!flowStack.empty() && flowStack.back().isCall)
2446            {
2447                auto csimsmit = curSSAIdMapStateMap.find(entry.blockIndex.index);
2448                if (csimsmit != curSSAIdMapStateMap.end())
2449                {
2450                    std::cout << " get curSSAIdMap from back recur" << std::endl;
2451                    curSSAIdMap = csimsmit->second;
2452                }
2453            }
2454            flowStack.pop_back();
2455           
2456            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
2457                    lastCommonCacheWayPoint.second >= flowStack.size())
2458            {
2459                lastCommonCacheWayPoint =
2460                        { flowStack.back().blockIndex, flowStack.size()-1 };
2461                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
2462            }
2463        }
2464    }
2465   
2466    /**********
2467     * after that, we find points to resolve conflicts
2468     **********/
2469    flowStack.clear();
2470    std::deque<FlowStackEntry2> flowStack2;
2471   
2472    std::fill(visited.begin(), visited.end(), false);
2473    flowStack2.push_back({ 0, 0 });
2474   
2475    SimpleCache<BlockIndex, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
2476    SimpleCache<BlockIndex, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
2477   
2478    while (!flowStack2.empty())
2479    {
2480        FlowStackEntry2& entry = flowStack2.back();
2481        CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
2482       
2483        if (entry.nextIndex == 0)
2484        {
2485            // process current block
2486            if (!visited[entry.blockIndex])
2487                visited[entry.blockIndex] = true;
2488            else
2489            {
2490                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
2491                            prevWaysIndexMap, waysToCache, cblocksToCache,
2492                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
2493               
2494                // back, already visited
2495                flowStack2.pop_back();
2496                continue;
2497            }
2498        }
2499       
2500        if (entry.nextIndex < cblock.nexts.size())
2501        {
2502            flowStack2.push_back({
2503                { cblock.nexts[entry.nextIndex].block, entry.blockIndex.pass }, 0 });
2504            entry.nextIndex++;
2505        }
2506        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2507                // if have any call then go to next block
2508                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2509                 !cblock.haveReturn && !cblock.haveEnd)
2510        {
2511            flowStack2.push_back({ entry.blockIndex+1, 0 });
2512            entry.nextIndex++;
2513        }
2514        else // back
2515        {
2516            if (cblocksToCache.count(entry.blockIndex)==2 &&
2517                !resSecondPointsCache.hasKey(entry.blockIndex))
2518                // add to cache
2519                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
2520                            entry.blockIndex);
2521            flowStack2.pop_back();
2522        }
2523    }
2524}
2525
2526void AsmRegAllocator::applySSAReplaces()
2527{
2528    /* prepare SSA id replaces */
2529    struct MinSSAGraphNode
2530    {
2531        size_t minSSAId;
2532        bool visited;
2533        std::unordered_set<size_t> nexts;
2534        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
2535    };
2536    struct MinSSAGraphStackEntry
2537    {
2538        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
2539        std::unordered_set<size_t>::const_iterator nextIt;
2540        size_t minSSAId;
2541    };
2542   
2543    for (auto& entry: ssaReplacesMap)
2544    {
2545        VectorSet<SSAReplace>& replaces = entry.second;
2546        std::sort(replaces.begin(), replaces.end());
2547        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
2548        VectorSet<SSAReplace> newReplaces;
2549       
2550        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
2551       
2552        auto it = replaces.begin();
2553        while (it != replaces.end())
2554        {
2555            auto itEnd = std::upper_bound(it, replaces.end(),
2556                            std::make_pair(it->first, size_t(SIZE_MAX)));
2557            {
2558                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2559                node.minSSAId = std::min(node.minSSAId, it->second);
2560                for (auto it2 = it; it2 != itEnd; ++it2)
2561                    node.nexts.insert(it->second);
2562            }
2563            it = itEnd;
2564        }
2565        // propagate min value
2566        std::stack<MinSSAGraphStackEntry> minSSAStack;
2567        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
2568                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
2569        {
2570            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2571            // traverse with minimalize SSA id
2572            while (!minSSAStack.empty())
2573            {
2574                MinSSAGraphStackEntry& entry = minSSAStack.top();
2575                MinSSAGraphNode& node = entry.nodeIt->second;
2576                bool toPop = false;
2577                if (entry.nextIt == node.nexts.begin())
2578                {
2579                    if (!node.visited)
2580                        node.visited = true;
2581                    else
2582                        toPop = true;
2583                }
2584                if (!toPop && entry.nextIt != node.nexts.end())
2585                {
2586                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2587                    if (nodeIt != ssaGraphNodes.end())
2588                    {
2589                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2590                                nodeIt->second.minSSAId });
2591                    }
2592                    ++entry.nextIt;
2593                }
2594                else
2595                {
2596                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2597                    minSSAStack.pop();
2598                    if (!minSSAStack.empty())
2599                    {
2600                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2601                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2602                    }
2603                }
2604            }
2605            // skip visited nodes
2606            while (ssaGraphNodeIt != ssaGraphNodes.end())
2607                if (!ssaGraphNodeIt->second.visited)
2608                    break;
2609        }
2610       
2611        for (const auto& entry: ssaGraphNodes)
2612            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2613       
2614        std::sort(newReplaces.begin(), newReplaces.end());
2615        entry.second = newReplaces;
2616    }
2617   
2618    /* apply SSA id replaces */
2619    for (CodeBlock& cblock: codeBlocks)
2620        for (auto& ssaEntry: cblock.ssaInfoMap)
2621        {
2622            auto it = ssaReplacesMap.find(ssaEntry.first);
2623            if (it == ssaReplacesMap.end())
2624                continue;
2625            SSAInfo& sinfo = ssaEntry.second;
2626            VectorSet<SSAReplace>& replaces = it->second;
2627            if (sinfo.readBeforeWrite)
2628            {
2629                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2630                                 ssaEntry.second.ssaIdBefore);
2631                if (rit != replaces.end())
2632                    sinfo.ssaIdBefore = rit->second; // replace
2633            }
2634            if (sinfo.ssaIdFirst != SIZE_MAX)
2635            {
2636                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2637                                 ssaEntry.second.ssaIdFirst);
2638                if (rit != replaces.end())
2639                    sinfo.ssaIdFirst = rit->second; // replace
2640            }
2641            if (sinfo.ssaIdLast != SIZE_MAX)
2642            {
2643                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2644                                 ssaEntry.second.ssaIdLast);
2645                if (rit != replaces.end())
2646                    sinfo.ssaIdLast = rit->second; // replace
2647            }
2648        }
2649}
2650
2651struct Liveness
2652{
2653    std::map<size_t, size_t> l;
2654   
2655    Liveness() { }
2656   
2657    void clear()
2658    { l.clear(); }
2659   
2660    void expand(size_t k)
2661    {
2662        if (l.empty())
2663            l.insert(std::make_pair(k, k+1));
2664        else
2665        {
2666            auto it = l.end();
2667            --it;
2668            it->second = k+1;
2669        }
2670    }
2671    void newRegion(size_t k)
2672    {
2673        if (l.empty())
2674            l.insert(std::make_pair(k, k));
2675        else
2676        {
2677            auto it = l.end();
2678            --it;
2679            if (it->first != k && it->second != k)
2680                l.insert(std::make_pair(k, k));
2681        }
2682    }
2683   
2684    void insert(size_t k, size_t k2)
2685    {
2686        auto it1 = l.lower_bound(k);
2687        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2688            --it1;
2689        if (it1->second < k)
2690            ++it1;
2691        auto it2 = l.lower_bound(k2);
2692        if (it1!=it2)
2693        {
2694            k = std::min(k, it1->first);
2695            k2 = std::max(k2, (--it2)->second);
2696            l.erase(it1, it2);
2697        }
2698        l.insert(std::make_pair(k, k2));
2699    }
2700   
2701    bool contain(size_t t) const
2702    {
2703        auto it = l.lower_bound(t);
2704        if (it==l.begin() && it->first>t)
2705            return false;
2706        if (it==l.end() || it->first>t)
2707            --it;
2708        return it->first<=t && t<it->second;
2709    }
2710   
2711    bool common(const Liveness& b) const
2712    {
2713        auto i = l.begin();
2714        auto j = b.l.begin();
2715        for (; i != l.end() && j != b.l.end();)
2716        {
2717            if (i->first==i->second)
2718            {
2719                ++i;
2720                continue;
2721            }
2722            if (j->first==j->second)
2723            {
2724                ++j;
2725                continue;
2726            }
2727            if (i->first<j->first)
2728            {
2729                if (i->second > j->first)
2730                    return true; // common place
2731                ++i;
2732            }
2733            else
2734            {
2735                if (i->first < j->second)
2736                    return true; // common place
2737                ++j;
2738            }
2739        }
2740        return false;
2741    }
2742};
2743
2744typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2745
2746static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2747            const AsmSingleVReg& svreg)
2748{
2749    cxuint regType; // regtype
2750    if (svreg.regVar!=nullptr)
2751        regType = svreg.regVar->type;
2752    else
2753        for (regType = 0; regType < regTypesNum; regType++)
2754            if (svreg.index >= regRanges[regType<<1] &&
2755                svreg.index < regRanges[(regType<<1)+1])
2756                break;
2757    return regType;
2758}
2759
2760static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2761        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2762        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2763{
2764    size_t ssaId;
2765    if (svreg.regVar==nullptr)
2766        ssaId = 0;
2767    else if (ssaIdIdx==0)
2768        ssaId = ssaInfo.ssaIdBefore;
2769    else if (ssaIdIdx==1)
2770        ssaId = ssaInfo.ssaIdFirst;
2771    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2772        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2773    else // last
2774        ssaId = ssaInfo.ssaIdLast;
2775   
2776    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2777    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2778    const std::vector<size_t>& ssaIdIndices =
2779                vregIndexMap.find(svreg)->second;
2780    return livenesses[regType][ssaIdIndices[ssaId]];
2781}
2782
2783typedef std::deque<FlowStackEntry3>::const_iterator FlowStackCIter;
2784
2785struct CLRX_INTERNAL VRegLastPos
2786{
2787    size_t ssaId; // last SSA id
2788    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2789};
2790
2791/* TODO: add handling calls
2792 * handle many start points in this code (for example many kernel's in same code)
2793 * replace sets by vector, and sort and remove same values on demand
2794 */
2795
2796typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2797
2798static void putCrossBlockLivenesses(const std::deque<FlowStackEntry3>& flowStack,
2799        const std::vector<CodeBlock>& codeBlocks,
2800        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2801        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2802        size_t regTypesNum, const cxuint* regRanges)
2803{
2804    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2805    for (const auto& entry: cblock.ssaInfoMap)
2806        if (entry.second.readBeforeWrite)
2807        {
2808            // find last
2809            auto lvrit = lastVRegMap.find(entry.first);
2810            if (lvrit == lastVRegMap.end())
2811                continue; // not found
2812            const VRegLastPos& lastPos = lvrit->second;
2813            FlowStackCIter flit = lastPos.blockChain.back();
2814            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2815            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2816            const std::vector<size_t>& ssaIdIndices =
2817                        vregIndexMap.find(entry.first)->second;
2818            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2819            FlowStackCIter flitEnd = flowStack.end();
2820            --flitEnd; // before last element
2821            // insert live time to last seen position
2822            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2823            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2824            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2825                    toLiveCvt + lastBlk.end);
2826            for (++flit; flit != flitEnd; ++flit)
2827            {
2828                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2829                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2830                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2831            }
2832        }
2833}
2834
2835static void putCrossBlockForLoop(const std::deque<FlowStackEntry3>& flowStack,
2836        const std::vector<CodeBlock>& codeBlocks,
2837        const Array<size_t>& codeBlockLiveTimes,
2838        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2839        size_t regTypesNum, const cxuint* regRanges)
2840{
2841    auto flitStart = flowStack.end();
2842    --flitStart;
2843    size_t curBlock = flitStart->blockIndex;
2844    // find step in way
2845    while (flitStart->blockIndex != curBlock) --flitStart;
2846    auto flitEnd = flowStack.end();
2847    --flitEnd;
2848    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2849   
2850    // collect var to check
2851    size_t flowPos = 0;
2852    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2853    {
2854        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2855        for (const auto& entry: cblock.ssaInfoMap)
2856        {
2857            const SSAInfo& sinfo = entry.second;
2858            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2859                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2860            varMap[entry.first] = { lastSSAId, flowPos };
2861        }
2862    }
2863    // find connections
2864    flowPos = 0;
2865    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2866    {
2867        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2868        for (const auto& entry: cblock.ssaInfoMap)
2869        {
2870            const SSAInfo& sinfo = entry.second;
2871            auto varMapIt = varMap.find(entry.first);
2872            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2873                flowPos > varMapIt->second.second ||
2874                sinfo.ssaIdBefore != varMapIt->second.first)
2875                continue;
2876            // just connect
2877           
2878            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2879            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2880            const std::vector<size_t>& ssaIdIndices =
2881                        vregIndexMap.find(entry.first)->second;
2882            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2883           
2884            if (flowPos == varMapIt->second.second)
2885            {
2886                // fill whole loop
2887                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2888                {
2889                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2890                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2891                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2892                }
2893                continue;
2894            }
2895           
2896            size_t flowPos2 = 0;
2897            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2898            {
2899                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2900                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2901                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2902            }
2903            // insert liveness for last block in loop of last SSAId (prev round)
2904            auto flit2 = flitStart + flowPos;
2905            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2906            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2907            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2908                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2909            // insert liveness for first block in loop of last SSAId
2910            flit2 = flitStart + (varMapIt->second.second+1);
2911            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2912            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2913            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2914                    toLiveCvt + lastBlk.end);
2915            // fill up loop end
2916            for (++flit2; flit2 != flitEnd; ++flit2)
2917            {
2918                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2919                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2920                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2921            }
2922        }
2923    }
2924}
2925
2926struct LiveBlock
2927{
2928    size_t start;
2929    size_t end;
2930    size_t vidx;
2931   
2932    bool operator==(const LiveBlock& b) const
2933    { return start==b.start && end==b.end && vidx==b.vidx; }
2934   
2935    bool operator<(const LiveBlock& b) const
2936    { return start<b.start || (start==b.start &&
2937            (end<b.end || (end==b.end && vidx<b.vidx))); }
2938};
2939
2940typedef AsmRegAllocator::LinearDep LinearDep;
2941typedef AsmRegAllocator::EqualToDep EqualToDep;
2942typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2943typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2944
2945static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2946            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2947            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2948            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2949            size_t regTypesNum, const cxuint* regRanges)
2950{
2951    // add linear deps
2952    cxuint count = ldeps[0];
2953    cxuint pos = 1;
2954    cxbyte rvuAdded = 0;
2955    for (cxuint i = 0; i < count; i++)
2956    {
2957        cxuint ccount = ldeps[pos++];
2958        std::vector<size_t> vidxes;
2959        cxuint regType = UINT_MAX;
2960        cxbyte align = rvus[ldeps[pos]].align;
2961        for (cxuint j = 0; j < ccount; j++)
2962        {
2963            rvuAdded |= 1U<<ldeps[pos];
2964            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2965            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2966            {
2967                AsmSingleVReg svreg = {rvu.regVar, k};
2968                auto sit = ssaIdIdxMap.find(svreg);
2969                if (regType==UINT_MAX)
2970                    regType = getRegType(regTypesNum, regRanges, svreg);
2971                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2972                const std::vector<size_t>& ssaIdIndices =
2973                            vregIndexMap.find(svreg)->second;
2974                // push variable index
2975                vidxes.push_back(ssaIdIndices[sit->second]);
2976            }
2977        }
2978        ldepsOut[regType][vidxes[0]].align = align;
2979        for (size_t k = 1; k < vidxes.size(); k++)
2980        {
2981            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2982            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2983        }
2984    }
2985    // add single arg linear dependencies
2986    for (cxuint i = 0; i < rvusNum; i++)
2987        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2988        {
2989            const AsmRegVarUsage& rvu = rvus[i];
2990            std::vector<size_t> vidxes;
2991            cxuint regType = UINT_MAX;
2992            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2993            {
2994                AsmSingleVReg svreg = {rvu.regVar, k};
2995                auto sit = ssaIdIdxMap.find(svreg);
2996                if (regType==UINT_MAX)
2997                    regType = getRegType(regTypesNum, regRanges, svreg);
2998                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2999                const std::vector<size_t>& ssaIdIndices =
3000                            vregIndexMap.find(svreg)->second;
3001                // push variable index
3002                vidxes.push_back(ssaIdIndices[sit->second]);
3003            }
3004            for (size_t j = 1; j < vidxes.size(); j++)
3005            {
3006                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
3007                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
3008            }
3009        }
3010       
3011    /* equalTo dependencies */
3012    count = edeps[0];
3013    pos = 1;
3014    for (cxuint i = 0; i < count; i++)
3015    {
3016        cxuint ccount = edeps[pos++];
3017        std::vector<size_t> vidxes;
3018        cxuint regType = UINT_MAX;
3019        for (cxuint j = 0; j < ccount; j++)
3020        {
3021            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
3022            // only one register should be set for equalTo depencencies
3023            // other registers in range will be resolved by linear dependencies
3024            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
3025            auto sit = ssaIdIdxMap.find(svreg);
3026            if (regType==UINT_MAX)
3027                regType = getRegType(regTypesNum, regRanges, svreg);
3028            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3029            const std::vector<size_t>& ssaIdIndices =
3030                        vregIndexMap.find(svreg)->second;
3031            // push variable index
3032            vidxes.push_back(ssaIdIndices[sit->second]);
3033        }
3034        for (size_t j = 1; j < vidxes.size(); j++)
3035        {
3036            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
3037            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
3038        }
3039    }
3040}
3041
3042typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
3043
3044struct EqualStackEntry
3045{
3046    EqualToDepMapCIter etoDepIt;
3047    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
3048};
3049
3050void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
3051{
3052    // construct var index maps
3053    size_t graphVregsCounts[MAX_REGTYPES_NUM];
3054    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
3055    cxuint regRanges[MAX_REGTYPES_NUM*2];
3056    size_t regTypesNum;
3057    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
3058   
3059    for (const CodeBlock& cblock: codeBlocks)
3060        for (const auto& entry: cblock.ssaInfoMap)
3061        {
3062            const SSAInfo& sinfo = entry.second;
3063            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
3064            VarIndexMap& vregIndices = vregIndexMaps[regType];
3065            size_t& graphVregsCount = graphVregsCounts[regType];
3066            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
3067            size_t ssaIdCount = 0;
3068            if (sinfo.readBeforeWrite)
3069                ssaIdCount = sinfo.ssaIdBefore+1;
3070            if (sinfo.ssaIdChange!=0)
3071            {
3072                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
3073                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
3074            }
3075            if (ssaIdIndices.size() < ssaIdCount)
3076                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
3077           
3078            if (sinfo.readBeforeWrite)
3079                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
3080            if (sinfo.ssaIdChange!=0)
3081            {
3082                // fill up ssaIdIndices (with graph Ids)
3083                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
3084                for (size_t ssaId = sinfo.ssaId+1;
3085                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
3086                    ssaIdIndices[ssaId] = graphVregsCount++;
3087                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
3088            }
3089        }
3090   
3091    // construct vreg liveness
3092    std::deque<FlowStackEntry3> flowStack;
3093    std::vector<bool> visited(codeBlocks.size(), false);
3094    // hold last vreg ssaId and position
3095    LastVRegMap lastVRegMap;
3096    // hold start live time position for every code block
3097    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
3098    std::unordered_set<size_t> blockInWay;
3099   
3100    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
3101   
3102    for (size_t i = 0; i < regTypesNum; i++)
3103        livenesses[i].resize(graphVregsCounts[i]);
3104   
3105    size_t curLiveTime = 0;
3106   
3107    while (!flowStack.empty())
3108    {
3109        FlowStackEntry3& entry = flowStack.back();
3110        CodeBlock& cblock = codeBlocks[entry.blockIndex];
3111       
3112        if (entry.nextIndex == 0)
3113        {
3114            // process current block
3115            if (!blockInWay.insert(entry.blockIndex).second)
3116            {
3117                // if loop
3118                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
3119                        livenesses, vregIndexMaps, regTypesNum, regRanges);
3120                flowStack.pop_back();
3121                continue;
3122            }
3123           
3124            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
3125            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
3126                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
3127           
3128            for (const auto& sentry: cblock.ssaInfoMap)
3129            {
3130                const SSAInfo& sinfo = sentry.second;
3131                // update
3132                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
3133                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
3134                FlowStackCIter flit = flowStack.end();
3135                --flit; // to last position
3136                auto res = lastVRegMap.insert({ sentry.first, 
3137                            { lastSSAId, { flit } } });
3138                if (!res.second) // if not first seen, just update
3139                {
3140                    // update last
3141                    res.first->second.ssaId = lastSSAId;
3142                    res.first->second.blockChain.push_back(flit);
3143                }
3144            }
3145           
3146            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
3147            if (!visited[entry.blockIndex])
3148            {
3149                visited[entry.blockIndex] = true;
3150                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
3151                AsmRegVarUsage instrRVUs[8];
3152                cxuint instrRVUsCount = 0;
3153               
3154                size_t oldOffset = cblock.usagePos.readOffset;
3155                std::vector<AsmSingleVReg> readSVRegs;
3156                std::vector<AsmSingleVReg> writtenSVRegs;
3157               
3158                usageHandler.setReadPos(cblock.usagePos);
3159                // register in liveness
3160                while (true)
3161                {
3162                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
3163                    size_t liveTimeNext = curBlockLiveEnd;
3164                    if (usageHandler.hasNext())
3165                    {
3166                        rvu = usageHandler.nextUsage();
3167                        if (rvu.offset >= cblock.end)
3168                            break;
3169                        if (!rvu.useRegMode)
3170                            instrRVUs[instrRVUsCount++] = rvu;
3171                        liveTimeNext = std::min(rvu.offset, cblock.end) -
3172                                cblock.start + curLiveTime;
3173                    }
3174                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
3175                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
3176                    {
3177                        // apply to liveness
3178                        for (AsmSingleVReg svreg: readSVRegs)
3179                        {
3180                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
3181                                    cblock.ssaInfoMap.find(svreg)->second,
3182                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
3183                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
3184                                lv.newRegion(curLiveTime); // begin region from this block
3185                            lv.expand(liveTime);
3186                        }
3187                        for (AsmSingleVReg svreg: writtenSVRegs)
3188                        {
3189                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
3190                            ssaIdIdx++;
3191                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
3192                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
3193                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
3194                            if (liveTimeNext != curBlockLiveEnd)
3195                                // because live after this instr
3196                                lv.newRegion(liveTimeNext);
3197                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
3198                        }
3199                        // get linear deps and equal to
3200                        cxbyte lDeps[16];
3201                        cxbyte eDeps[16];
3202                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
3203                                        lDeps, eDeps);
3204                       
3205                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
3206                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
3207                                regTypesNum, regRanges);
3208                       
3209                        readSVRegs.clear();
3210                        writtenSVRegs.clear();
3211                        if (!usageHandler.hasNext())
3212                            break; // end
3213                        oldOffset = rvu.offset;
3214                        instrRVUsCount = 0;
3215                    }
3216                    if (rvu.offset >= cblock.end)
3217                        break;
3218                   
3219                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
3220                    {
3221                        // per register/singlvreg
3222                        AsmSingleVReg svreg{ rvu.regVar, rindex };
3223                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
3224                            writtenSVRegs.push_back(svreg);
3225                        else // read or treat as reading // expand previous region
3226                            readSVRegs.push_back(svreg);
3227                    }
3228                }
3229                curLiveTime += cblock.end-cblock.start;
3230            }
3231            else
3232            {
3233                // back, already visited
3234                flowStack.pop_back();
3235                continue;
3236            }
3237        }
3238        if (entry.nextIndex < cblock.nexts.size())
3239        {
3240            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
3241            entry.nextIndex++;
3242        }
3243        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
3244        {
3245            flowStack.push_back({ entry.blockIndex+1, 0 });
3246            entry.nextIndex++;
3247        }
3248        else // back
3249        {
3250            // revert lastSSAIdMap
3251            blockInWay.erase(entry.blockIndex);
3252            flowStack.pop_back();
3253            if (!flowStack.empty())
3254            {
3255                for (const auto& sentry: cblock.ssaInfoMap)
3256                {
3257                    auto lvrit = lastVRegMap.find(sentry.first);
3258                    if (lvrit != lastVRegMap.end())
3259                    {
3260                        VRegLastPos& lastPos = lvrit->second;
3261                        lastPos.ssaId = sentry.second.ssaIdBefore;
3262                        lastPos.blockChain.pop_back();
3263                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
3264                            lastVRegMap.erase(lvrit);
3265                    }
3266                }
3267            }
3268        }
3269    }
3270   
3271    /// construct liveBlockMaps
3272    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
3273    for (size_t regType = 0; regType < regTypesNum; regType++)
3274    {
3275        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3276        std::vector<Liveness>& liveness = livenesses[regType];
3277        for (size_t li = 0; li < liveness.size(); li++)
3278        {
3279            Liveness& lv = liveness[li];
3280            for (const std::pair<size_t, size_t>& blk: lv.l)
3281                if (blk.first != blk.second)
3282                    liveBlockMap.insert({ blk.first, blk.second, li });
3283            lv.clear();
3284        }
3285        liveness.clear();
3286    }
3287   
3288    // create interference graphs
3289    for (size_t regType = 0; regType < regTypesNum; regType++)
3290    {
3291        InterGraph& interGraph = interGraphs[regType];
3292        interGraph.resize(graphVregsCounts[regType]);
3293        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3294       
3295        auto lit = liveBlockMap.begin();
3296        size_t rangeStart = 0;
3297        if (lit != liveBlockMap.end())
3298            rangeStart = lit->start;
3299        while (lit != liveBlockMap.end())
3300        {
3301            const size_t blkStart = lit->start;
3302            const size_t blkEnd = lit->end;
3303            size_t rangeEnd = blkEnd;
3304            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
3305            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
3306            // collect from this range, variable indices
3307            std::set<size_t> varIndices;
3308            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
3309                varIndices.insert(lit2->vidx);
3310            // push to intergraph as full subgGraph
3311            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
3312                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
3313                    if (vit != vit2)
3314                        interGraph[*vit].insert(*vit2);
3315            // go to next live blocks
3316            rangeStart = rangeEnd;
3317            for (; lit != liveBlockMap.end(); ++lit)
3318                if (lit->start != blkStart && lit->end != blkEnd)
3319                    break;
3320            if (lit == liveBlockMap.end())
3321                break; //
3322            rangeStart = std::max(rangeStart, lit->start);
3323        }
3324    }
3325   
3326    /*
3327     * resolve equalSets
3328     */
3329    for (cxuint regType = 0; regType < regTypesNum; regType++)
3330    {
3331        InterGraph& interGraph = interGraphs[regType];
3332        const size_t nodesNum = interGraph.size();
3333        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
3334        std::vector<bool> visited(nodesNum, false);
3335        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3336       
3337        for (size_t v = 0; v < nodesNum;)
3338        {
3339            auto it = etoDepMap.find(v);
3340            if (it == etoDepMap.end())
3341            {
3342                // is not regvar in equalTo dependencies
3343                v++;
3344                continue;
3345            }
3346           
3347            std::stack<EqualStackEntry> etoStack;
3348            etoStack.push(EqualStackEntry{ it, 0 });
3349           
3350            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3351            const size_t equalSetIndex = equalSetList.size();
3352            equalSetList.push_back(std::vector<size_t>());
3353            std::vector<size_t>& equalSet = equalSetList.back();
3354           
3355            // traverse by this
3356            while (!etoStack.empty())
3357            {
3358                EqualStackEntry& entry = etoStack.top();
3359                size_t vidx = entry.etoDepIt->first; // node index, vreg index
3360                const EqualToDep& eToDep = entry.etoDepIt->second;
3361                if (entry.nextIdx == 0)
3362                {
3363                    if (!visited[vidx])
3364                    {
3365                        // push to this equalSet
3366                        equalSetMap.insert({ vidx, equalSetIndex });
3367                        equalSet.push_back(vidx);
3368                    }
3369                    else
3370                    {
3371                        // already visited
3372                        etoStack.pop();
3373                        continue;
3374                    }
3375                }
3376               
3377                if (entry.nextIdx < eToDep.nextVidxes.size())
3378                {
3379                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
3380                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3381                    entry.nextIdx++;
3382                }
3383                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
3384                {
3385                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
3386                                entry.nextIdx - eToDep.nextVidxes.size()]);
3387                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3388                    entry.nextIdx++;
3389                }
3390                else
3391                    etoStack.pop();
3392            }
3393           
3394            // to first already added node (var)
3395            while (v < nodesNum && !visited[v]) v++;
3396        }
3397    }
3398}
3399
3400typedef AsmRegAllocator::InterGraph InterGraph;
3401
3402struct CLRX_INTERNAL SDOLDOCompare
3403{
3404    const InterGraph& interGraph;
3405    const Array<size_t>& sdoCounts;
3406   
3407    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
3408        : interGraph(_interGraph), sdoCounts(_sdoCounts)
3409    { }
3410   
3411    bool operator()(size_t a, size_t b) const
3412    {
3413        if (sdoCounts[a] > sdoCounts[b])
3414            return true;
3415        return interGraph[a].size() > interGraph[b].size();
3416    }
3417};
3418
3419/* algorithm to allocate regranges:
3420 * from smallest regranges to greatest regranges:
3421 *   choosing free register: from smallest free regranges
3422 *      to greatest regranges:
3423 *         in this same regrange:
3424 *               try to find free regs in regranges
3425 *               try to link free ends of two distinct regranges
3426 */
3427
3428void AsmRegAllocator::colorInterferenceGraph()
3429{
3430    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
3431                    assembler.deviceType);
3432   
3433    for (size_t regType = 0; regType < regTypesNum; regType++)
3434    {
3435        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
3436        InterGraph& interGraph = interGraphs[regType];
3437        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3438        Array<cxuint>& gcMap = graphColorMaps[regType];
3439        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3440        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3441       
3442        const size_t nodesNum = interGraph.size();
3443        gcMap.resize(nodesNum);
3444        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
3445        Array<size_t> sdoCounts(nodesNum);
3446        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
3447       
3448        SDOLDOCompare compare(interGraph, sdoCounts);
3449        std::set<size_t, SDOLDOCompare> nodeSet(compare);
3450        for (size_t i = 0; i < nodesNum; i++)
3451            nodeSet.insert(i);
3452       
3453        cxuint colorsNum = 0;
3454        // firstly, allocate real registers
3455        for (const auto& entry: vregIndexMap)
3456            if (entry.first.regVar == nullptr)
3457                gcMap[entry.second[0]] = colorsNum++;
3458       
3459        for (size_t colored = 0; colored < nodesNum; colored++)
3460        {
3461            size_t node = *nodeSet.begin();
3462            if (gcMap[node] != UINT_MAX)
3463                continue; // already colored
3464            size_t color = 0;
3465            std::vector<size_t> equalNodes;
3466            equalNodes.push_back(node); // only one node, if equalSet not found
3467            auto equalSetMapIt = equalSetMap.find(node);
3468            if (equalSetMapIt != equalSetMap.end())
3469                // found, get equal set from equalSetList
3470                equalNodes = equalSetList[equalSetMapIt->second];
3471           
3472            for (color = 0; color <= colorsNum; color++)
3473            {
3474                // find first usable color
3475                bool thisSame = false;
3476                for (size_t nb: interGraph[node])
3477                    if (gcMap[nb] == color)
3478                    {
3479                        thisSame = true;
3480                        break;
3481                    }
3482                if (!thisSame)
3483                    break;
3484            }
3485            if (color==colorsNum) // add new color if needed
3486            {
3487                if (colorsNum >= maxColorsNum)
3488                    throw AsmException("Too many register is needed");
3489                colorsNum++;
3490            }
3491           
3492            for (size_t nextNode: equalNodes)
3493                gcMap[nextNode] = color;
3494            // update SDO for node
3495            bool colorExists = false;
3496            for (size_t node: equalNodes)
3497            {
3498                for (size_t nb: interGraph[node])
3499                    if (gcMap[nb] == color)
3500                    {
3501                        colorExists = true;
3502                        break;
3503                    }
3504                if (!colorExists)
3505                    sdoCounts[node]++;
3506            }
3507            // update SDO for neighbors
3508            for (size_t node: equalNodes)
3509                for (size_t nb: interGraph[node])
3510                {
3511                    colorExists = false;
3512                    for (size_t nb2: interGraph[nb])
3513                        if (gcMap[nb2] == color)
3514                        {
3515                            colorExists = true;
3516                            break;
3517                        }
3518                    if (!colorExists)
3519                    {
3520                        if (gcMap[nb] == UINT_MAX)
3521                            nodeSet.erase(nb);  // before update we erase from nodeSet
3522                        sdoCounts[nb]++;
3523                        if (gcMap[nb] == UINT_MAX)
3524                            nodeSet.insert(nb); // after update, insert again
3525                    }
3526                }
3527           
3528            for (size_t nextNode: equalNodes)
3529                gcMap[nextNode] = color;
3530        }
3531    }
3532}
3533
3534void AsmRegAllocator::allocateRegisters(cxuint sectionId)
3535{
3536    // before any operation, clear all
3537    codeBlocks.clear();
3538    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
3539    {
3540        vregIndexMaps[i].clear();
3541        interGraphs[i].clear();
3542        linearDepMaps[i].clear();
3543        equalToDepMaps[i].clear();
3544        graphColorMaps[i].clear();
3545        equalSetMaps[i].clear();
3546        equalSetLists[i].clear();
3547    }
3548    ssaReplacesMap.clear();
3549    cxuint maxRegs[MAX_REGTYPES_NUM];
3550    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
3551   
3552    // set up
3553    const AsmSection& section = assembler.sections[sectionId];
3554    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
3555    createSSAData(*section.usageHandler);
3556    applySSAReplaces();
3557    createInterferenceGraph(*section.usageHandler);
3558    colorInterferenceGraph();
3559}
Note: See TracBrowser for help on using the repository browser.