source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3971

Last change on this file since 3971 was 3971, checked in by matszpk, 13 months ago

CLRadeonExtender: AsmRegAlloc?: add origRbwSSAIdMap and use if call for next recursion pass to avoid obsolete keeping previous SSAIds before this call.

File size: 137.3 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558
559//  BlockIndex
560
561struct CLRX_INTERNAL BlockIndex
562{
563    size_t index;
564    size_t pass;
565   
566    BlockIndex(size_t _index = 0, size_t _pass = 0)
567            : index(_index), pass(_pass)
568    { }
569   
570    bool operator==(const BlockIndex& v) const
571    { return index==v.index && pass==v.pass; }
572    bool operator!=(const BlockIndex& v) const
573    { return index!=v.index || pass!=v.pass; }
574   
575    BlockIndex operator+(size_t p) const
576    { return BlockIndex(index+p, pass); }
577};
578
579std::ostream& operator<<(std::ostream& os, const BlockIndex& v)
580{
581    if (v.pass==0)
582        return os << v.index;
583    else
584        return os << v.index << "#" << v.pass;
585}
586
587namespace std
588{
589
590/// std::hash specialization for CLRX CString
591template<>
592struct hash<BlockIndex>
593{
594    typedef BlockIndex argument_type;    ///< argument type
595    typedef std::size_t result_type;    ///< result type
596   
597    /// a calling operator
598    size_t operator()(const BlockIndex& r1) const
599    {
600        std::hash<size_t> h1;
601        return h1(r1.index) ^ h1(r1.pass);
602    }
603};
604
605}
606
607class CLRX_INTERNAL CBlockBitPool: public std::vector<bool>
608{
609public:
610    CBlockBitPool(size_t n = 0, bool v = false) : std::vector<bool>(n<<1, v)
611    { }
612   
613    reference operator[](BlockIndex i)
614    { return std::vector<bool>::operator[](i.index + (i.pass ? (size()>>1) : 0)); }
615    const_reference operator[](BlockIndex i) const
616    { return std::vector<bool>::operator[](i.index + (i.pass ? (size()>>1) : 0)); }
617};
618
619/** Simple cache **/
620
621// map of last SSAId for routine, key - varid, value - last SSA ids
622class CLRX_INTERNAL LastSSAIdMap: public
623            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
624{
625public:
626    LastSSAIdMap()
627    { }
628   
629    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
630    {
631        auto res = insert({ vreg, { ssaId } });
632        if (!res.second)
633            res.first->second.insertValue(ssaId);
634        return res.first;
635    }
636   
637    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
638    {
639        auto it = find(vreg);
640        if (it != end())
641             it->second.eraseValue(ssaId);
642    }
643   
644    size_t weight() const
645    { return size(); }
646};
647
648typedef LastSSAIdMap RBWSSAIdMap;
649typedef std::unordered_map<BlockIndex, VectorSet<BlockIndex> > SubrLoopsMap;
650
651struct CLRX_INTERNAL RetSSAEntry
652{
653    std::vector<BlockIndex> routines;
654    VectorSet<size_t> ssaIds;
655    size_t prevSSAId; // for curSSAId
656};
657
658typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
659
660struct CLRX_INTERNAL LoopSSAIdMap
661{
662    LastSSAIdMap ssaIdMap;
663    bool passed;
664};
665
666struct CLRX_INTERNAL RoutineData
667{
668    // rbwSSAIdMap - read before write SSAId's map
669    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
670    std::unordered_map<AsmSingleVReg, size_t> origRbwSSAIdMap;
671    LastSSAIdMap curSSAIdMap;
672    LastSSAIdMap lastSSAIdMap;
673    // key - loop block, value - last ssaId map for loop end
674    std::unordered_map<BlockIndex, LoopSSAIdMap> loopEnds;
675    bool notFirstReturn;
676    size_t weight_;
677   
678    RoutineData() : notFirstReturn(false), weight_(0)
679    { }
680   
681    void calculateWeight()
682    {
683        weight_ = rbwSSAIdMap.size() + lastSSAIdMap.weight();
684        for (const auto& entry: loopEnds)
685            weight_ += entry.second.ssaIdMap.weight();
686    }
687   
688    size_t weight() const
689    { return weight_; }
690};
691
692struct CLRX_INTERNAL FlowStackEntry
693{
694    BlockIndex blockIndex;
695    size_t nextIndex;
696    bool isCall;
697    RetSSAIdMap prevRetSSAIdSets;
698};
699
700struct CLRX_INTERNAL FlowStackEntry2
701{
702    BlockIndex blockIndex;
703    size_t nextIndex;
704};
705
706struct CLRX_INTERNAL FlowStackEntry3
707{
708    size_t blockIndex;
709    size_t nextIndex;
710    bool isCall;
711    RetSSAIdMap prevRetSSAIdSets;
712};
713
714
715struct CLRX_INTERNAL CallStackEntry
716{
717    BlockIndex callBlock; // index
718    size_t callNextIndex; // index of call next
719    BlockIndex routineBlock;    // routine block
720};
721
722typedef std::unordered_map<BlockIndex, RoutineData> RoutineMap;
723
724class CLRX_INTERNAL ResSecondPointsToCache: public CBlockBitPool
725{
726public:
727    explicit ResSecondPointsToCache(size_t n) : CBlockBitPool(n<<1, false)
728    { }
729   
730    void increase(BlockIndex ip)
731    {
732        const size_t i = ip.index + (ip.pass ? (size()>>2) : 0);
733        if ((*this)[i<<1])
734            (*this)[(i<<1)+1] = true;
735        else
736            (*this)[i<<1] = true;
737    }
738   
739    cxuint count(BlockIndex ip) const
740    {
741        const size_t i = ip.index + (ip.pass ? (size()>>2) : 0);
742        return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1];
743    }
744};
745
746typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
747typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
748
749static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
750              size_t origId, size_t destId)
751{
752    auto res = rmap.insert({ vreg, {} });
753    res.first->second.insertValue({ origId, destId });
754}
755
756/* caching concepts:
757 * resfirstPointsCache - cache of the ways that goes to conflict which should be resolved
758 *               from first code block of the code. The entries holds a stackVarMap state
759 *               to first point the conflict (first visited already code block)
760 * resSecondPointsCache - cache of the tree traversing, starting at the first conflict
761 *               point (first visited code block). Entries holds a
762 *               regvars SSAId read before write (that should resolved)
763 */
764
765static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
766            const LastSSAIdMap* stackVarMap,
767            std::unordered_map<AsmSingleVReg, BlockIndex>& alreadyReadMap,
768            FlowStackEntry2& entry, const SSAEntry& sentry,
769            RBWSSAIdMap* cacheSecPoints)
770{
771    const SSAInfo& sinfo = sentry.second;
772    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
773   
774    if (res.second && sinfo.readBeforeWrite)
775    {
776        if (cacheSecPoints != nullptr)
777        {
778            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
779            if (!res.second)
780                res.first->second.insertValue(sinfo.ssaIdBefore);
781        }
782       
783        if (stackVarMap != nullptr)
784        {
785           
786            // resolve conflict for this variable ssaId>.
787            // only if in previous block previous SSAID is
788            // read before all writes
789            auto it = stackVarMap->find(sentry.first);
790           
791            if (it != stackVarMap->end())
792            {
793                // found, resolve by set ssaIdLast
794                for (size_t ssaId: it->second)
795                {
796                    if (ssaId > sinfo.ssaIdBefore)
797                    {
798                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
799                            sentry.first.index  << ": " <<
800                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
801                        insertReplace(*replacesMap, sentry.first, ssaId,
802                                    sinfo.ssaIdBefore);
803                    }
804                    else if (ssaId < sinfo.ssaIdBefore)
805                    {
806                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
807                            sentry.first.index  << ": " <<
808                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
809                        insertReplace(*replacesMap, sentry.first,
810                                        sinfo.ssaIdBefore, ssaId);
811                    }
812                    /*else
813                        std::cout << "  noinsertreplace: " <<
814                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
815                }
816            }
817        }
818    }
819}
820
821typedef std::unordered_map<BlockIndex, std::pair<BlockIndex, size_t> > PrevWaysIndexMap;
822
823// use res second point cache entry to resolve conflict with SSAIds.
824// it emits SSA replaces from these conflicts
825static void useResSecPointCache(SSAReplacesMap* replacesMap,
826        const LastSSAIdMap* stackVarMap,
827        const std::unordered_map<AsmSingleVReg, BlockIndex>& alreadyReadMap,
828        const RBWSSAIdMap* resSecondPoints, BlockIndex nextBlock,
829        RBWSSAIdMap* destCacheSecPoints)
830{
831    std::cout << "use resSecPointCache for " << nextBlock <<
832            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
833    for (const auto& sentry: *resSecondPoints)
834    {
835        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
836        if (destCacheSecPoints != nullptr && !alreadyRead)
837        {
838            auto res = destCacheSecPoints->insert(sentry);
839            if (!res.second)
840                for (size_t srcSSAId: sentry.second)
841                    res.first->second.insertValue(srcSSAId);
842        }
843       
844        if (stackVarMap != nullptr)
845        {
846            auto it = stackVarMap->find(sentry.first);
847           
848            if (it != stackVarMap->end() && !alreadyRead)
849            {
850                // found, resolve by set ssaIdLast
851                for (size_t ssaId: it->second)
852                {
853                    for (size_t secSSAId: sentry.second)
854                    {
855                        if (ssaId > secSSAId)
856                        {
857                            std::cout << "  insertreplace: " <<
858                                sentry.first.regVar << ":" <<
859                                sentry.first.index  << ": " <<
860                                ssaId << ", " << secSSAId << std::endl;
861                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
862                        }
863                        else if (ssaId < secSSAId)
864                        {
865                            std::cout << "  insertreplace2: " <<
866                                sentry.first.regVar << ":" <<
867                                sentry.first.index  << ": " <<
868                                ssaId << ", " << secSSAId << std::endl;
869                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
870                        }
871                        /*else
872                            std::cout << "  noinsertreplace: " <<
873                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
874                    }
875                }
876            }
877        }
878    }
879}
880
881// add new res second cache entry with readBeforeWrite for all encountered regvars
882static void addResSecCacheEntry(const RoutineMap& routineMap,
883                const std::vector<CodeBlock>& codeBlocks,
884                SimpleCache<BlockIndex, RBWSSAIdMap>& resSecondPointsCache,
885                BlockIndex nextBlock)
886{
887    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
888    //std::stack<CallStackEntry> callStack = prevCallStack;
889    // traverse by graph from next block
890    std::deque<FlowStackEntry2> flowStack;
891    flowStack.push_back({ nextBlock, 0 });
892    CBlockBitPool visited(codeBlocks.size(), false);
893   
894    std::unordered_map<AsmSingleVReg, BlockIndex> alreadyReadMap;
895   
896    RBWSSAIdMap cacheSecPoints;
897   
898    while (!flowStack.empty())
899    {
900        FlowStackEntry2& entry = flowStack.back();
901        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
902       
903        if (entry.nextIndex == 0)
904        {
905            // process current block
906            if (!visited[entry.blockIndex])
907            {
908                visited[entry.blockIndex] = true;
909                std::cout << "  resolv (cache): " << entry.blockIndex << std::endl;
910               
911                const RBWSSAIdMap* resSecondPoints =
912                            resSecondPointsCache.use(entry.blockIndex);
913                if (resSecondPoints == nullptr)
914                    for (auto& sentry: cblock.ssaInfoMap)
915                        handleSSAEntryWhileResolving(nullptr, nullptr,
916                                alreadyReadMap, entry, sentry,
917                                &cacheSecPoints);
918                else // to use cache
919                {
920                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
921                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
922                    flowStack.pop_back();
923                    continue;
924                }
925            }
926            else
927            {
928                // back, already visited
929                std::cout << "resolv already (cache): " << entry.blockIndex << std::endl;
930                flowStack.pop_back();
931                continue;
932            }
933        }
934       
935        if (entry.nextIndex < cblock.nexts.size())
936        {
937            flowStack.push_back({ { cblock.nexts[entry.nextIndex].block,
938                    entry.blockIndex.pass }, 0 });
939            entry.nextIndex++;
940        }
941        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
942                // if have any call then go to next block
943                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
944                 !cblock.haveReturn && !cblock.haveEnd)
945        {
946            // add toResolveMap ssaIds inside called routines
947            for (const auto& next: cblock.nexts)
948                if (next.isCall)
949                {
950                    const RoutineData& rdata = routineMap.find(next.block)->second;
951                    for (const auto& v: rdata.rbwSSAIdMap)
952                        alreadyReadMap.insert({v.first, entry.blockIndex });
953                    for (const auto& v: rdata.lastSSAIdMap)
954                        alreadyReadMap.insert({v.first, entry.blockIndex });
955                }
956           
957            flowStack.push_back({ entry.blockIndex+1, 0 });
958            entry.nextIndex++;
959        }
960        else // back
961        {
962            // remove old to resolve in leaved way to allow collecting next ssaId
963            // before write (can be different due to earlier visit)
964            for (const auto& next: cblock.nexts)
965                if (next.isCall)
966                {
967                    const RoutineData& rdata = routineMap.find(next.block)->second;
968                    for (const auto& v: rdata.rbwSSAIdMap)
969                    {
970                        auto it = alreadyReadMap.find(v.first);
971                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
972                            alreadyReadMap.erase(it);
973                    }
974                    for (const auto& v: rdata.lastSSAIdMap)
975                    {
976                        auto it = alreadyReadMap.find(v.first);
977                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
978                            alreadyReadMap.erase(it);
979                    }
980                }
981           
982            for (const auto& sentry: cblock.ssaInfoMap)
983            {
984                auto it = alreadyReadMap.find(sentry.first);
985                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
986                    // remove old to resolve in leaved way to allow collecting next ssaId
987                    // before write (can be different due to earlier visit)
988                    alreadyReadMap.erase(it);
989            }
990            std::cout << "  popresolv (cache)" << std::endl;
991            flowStack.pop_back();
992        }
993    }
994   
995    resSecondPointsCache.put(nextBlock, cacheSecPoints);
996}
997
998// apply calls (changes from these calls) from code blocks to stack var map
999static void applyCallToStackVarMap(const CodeBlock& cblock, const RoutineMap& routineMap,
1000        LastSSAIdMap& stackVarMap, BlockIndex blockIndex, size_t nextIndex)
1001{
1002    for (const NextBlock& next: cblock.nexts)
1003        if (next.isCall)
1004        {
1005            const LastSSAIdMap& regVarMap =
1006                    routineMap.find(next.block)->second.lastSSAIdMap;
1007            for (const auto& sentry: regVarMap)
1008                stackVarMap[sentry.first].clear(); // clearing
1009        }
1010   
1011    for (const NextBlock& next: cblock.nexts)
1012        if (next.isCall)
1013        {
1014            std::cout << "  applycall: " << blockIndex << ": " <<
1015                    nextIndex << ": " << next.block << std::endl;
1016            const LastSSAIdMap& regVarMap =
1017                    routineMap.find(next.block)->second.lastSSAIdMap;
1018            for (const auto& sentry: regVarMap)
1019                for (size_t s: sentry.second)
1020                    stackVarMap.insertSSAId(sentry.first, s);
1021        }
1022}
1023
1024
1025// main routine to resilve SSA conflicts in code
1026// it emits SSA replaces from these conflicts
1027static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
1028        const RoutineMap& routineMap, const std::vector<CodeBlock>& codeBlocks,
1029        const PrevWaysIndexMap& prevWaysIndexMap,
1030        const CBlockBitPool& waysToCache, ResSecondPointsToCache& cblocksToCache,
1031        SimpleCache<BlockIndex, LastSSAIdMap>& resFirstPointsCache,
1032        SimpleCache<BlockIndex, RBWSSAIdMap>& resSecondPointsCache,
1033        SSAReplacesMap& replacesMap)
1034{
1035    BlockIndex nextBlock = prevFlowStack.back().blockIndex;
1036    auto pfEnd = prevFlowStack.end();
1037    --pfEnd;
1038    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
1039    LastSSAIdMap stackVarMap;
1040   
1041    size_t pfStartIndex = 0;
1042    {
1043        auto pfPrev = pfEnd;
1044        --pfPrev;
1045        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
1046        if (it != prevWaysIndexMap.end())
1047        {
1048            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
1049            if (cached!=nullptr)
1050            {
1051                std::cout << "use pfcached: " << it->second.first << ", " <<
1052                        it->second.second << std::endl;
1053                stackVarMap = *cached;
1054                pfStartIndex = it->second.second+1;
1055               
1056                // apply missing calls at end of the cached
1057                const CodeBlock& cblock = codeBlocks[it->second.first.index];
1058               
1059                const FlowStackEntry2& entry = *(prevFlowStack.begin()+pfStartIndex-1);
1060                if (entry.nextIndex > cblock.nexts.size())
1061                    applyCallToStackVarMap(cblock, routineMap, stackVarMap, -1, -1);
1062            }
1063        }
1064    }
1065   
1066    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
1067    {
1068        const FlowStackEntry2& entry = *pfit;
1069        std::cout << "  apply: " << entry.blockIndex << std::endl;
1070        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1071        for (const auto& sentry: cblock.ssaInfoMap)
1072        {
1073            const SSAInfo& sinfo = sentry.second;
1074            if (sinfo.ssaIdChange != 0)
1075                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
1076        }
1077        if (entry.nextIndex > cblock.nexts.size())
1078            applyCallToStackVarMap(cblock, routineMap, stackVarMap,
1079                        entry.blockIndex, entry.nextIndex);
1080       
1081        // put to first point cache
1082        if (waysToCache[pfit->blockIndex] &&
1083            !resFirstPointsCache.hasKey(pfit->blockIndex))
1084        {
1085            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
1086            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
1087        }
1088    }
1089   
1090    RBWSSAIdMap cacheSecPoints;
1091    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
1092                cblocksToCache.count(nextBlock)>=2;
1093   
1094    //std::stack<CallStackEntry> callStack = prevCallStack;
1095    // traverse by graph from next block
1096    std::deque<FlowStackEntry2> flowStack;
1097    flowStack.push_back({ nextBlock, 0 });
1098    CBlockBitPool visited(codeBlocks.size(), false);
1099   
1100    // already read in current path
1101    // key - vreg, value - source block where vreg of conflict found
1102    std::unordered_map<AsmSingleVReg, BlockIndex> alreadyReadMap;
1103   
1104    while (!flowStack.empty())
1105    {
1106        FlowStackEntry2& entry = flowStack.back();
1107        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1108       
1109        if (entry.nextIndex == 0)
1110        {
1111            // process current block
1112            if (!visited[entry.blockIndex])
1113            {
1114                visited[entry.blockIndex] = true;
1115                std::cout << "  resolv: " << entry.blockIndex << std::endl;
1116               
1117                const RBWSSAIdMap* resSecondPoints =
1118                        resSecondPointsCache.use(entry.blockIndex);
1119                if (resSecondPoints == nullptr)
1120                    for (auto& sentry: cblock.ssaInfoMap)
1121                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
1122                                alreadyReadMap, entry, sentry,
1123                                toCache ? &cacheSecPoints : nullptr);
1124                else // to use cache
1125                {
1126                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
1127                            resSecondPoints, entry.blockIndex,
1128                            toCache ? &cacheSecPoints : nullptr);
1129                    flowStack.pop_back();
1130                    continue;
1131                }
1132            }
1133            else
1134            {
1135                cblocksToCache.increase(entry.blockIndex);
1136                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1137                            cblocksToCache.count(entry.blockIndex) << std::endl;
1138                // back, already visited
1139                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1140                flowStack.pop_back();
1141                continue;
1142            }
1143        }
1144       
1145        if (entry.nextIndex < cblock.nexts.size())
1146        {
1147            flowStack.push_back({ { cblock.nexts[entry.nextIndex].block,
1148                        entry.blockIndex.pass }, 0 });
1149            entry.nextIndex++;
1150        }
1151        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1152                // if have any call then go to next block
1153                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1154                 !cblock.haveReturn && !cblock.haveEnd)
1155        {
1156            // add toResolveMap ssaIds inside called routines
1157            for (const auto& next: cblock.nexts)
1158                if (next.isCall)
1159                {
1160                    const RoutineData& rdata = routineMap.find(next.block)->second;
1161                    for (const auto& v: rdata.rbwSSAIdMap)
1162                        alreadyReadMap.insert({v.first, entry.blockIndex });
1163                    for (const auto& v: rdata.lastSSAIdMap)
1164                        alreadyReadMap.insert({v.first, entry.blockIndex });
1165                }
1166           
1167            flowStack.push_back({ entry.blockIndex+1, 0 });
1168            entry.nextIndex++;
1169        }
1170        else // back
1171        {
1172            // remove old to resolve in leaved way to allow collecting next ssaId
1173            // before write (can be different due to earlier visit)
1174            for (const auto& next: cblock.nexts)
1175                if (next.isCall)
1176                {
1177                    const RoutineData& rdata = routineMap.find(next.block)->second;
1178                    for (const auto& v: rdata.rbwSSAIdMap)
1179                    {
1180                        auto it = alreadyReadMap.find(v.first);
1181                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1182                            alreadyReadMap.erase(it);
1183                    }
1184                    for (const auto& v: rdata.lastSSAIdMap)
1185                    {
1186                        auto it = alreadyReadMap.find(v.first);
1187                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1188                            alreadyReadMap.erase(it);
1189                    }
1190                }
1191           
1192            for (const auto& sentry: cblock.ssaInfoMap)
1193            {
1194                auto it = alreadyReadMap.find(sentry.first);
1195                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1196                    // remove old to resolve in leaved way to allow collecting next ssaId
1197                    // before write (can be different due to earlier visit)
1198                    alreadyReadMap.erase(it);
1199            }
1200            std::cout << "  popresolv" << std::endl;
1201           
1202            if (cblocksToCache.count(entry.blockIndex)==2 &&
1203                !resSecondPointsCache.hasKey(entry.blockIndex))
1204                // add to cache
1205                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1206                            entry.blockIndex);
1207           
1208            flowStack.pop_back();
1209        }
1210    }
1211   
1212    if (toCache)
1213        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1214}
1215
1216// join ret SSAId Map - src - last SSAIdMap from called routine
1217static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1218                BlockIndex routineBlock)
1219{
1220    for (const auto& entry: src)
1221    {
1222        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1223                cxuint(entry.first.index) << ":";
1224        for (size_t v: entry.second)
1225            std::cout << " " << v;
1226        std::cout << std::endl;
1227        // insert if not inserted
1228        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1229        if (res.second)
1230            continue; // added new
1231        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1232        res.first->second.routines.push_back(routineBlock);
1233        // add new ways
1234        for (size_t ssaId: entry.second)
1235            destEntry.insertValue(ssaId);
1236        std::cout << "    :";
1237        for (size_t v: destEntry)
1238            std::cout << " " << v;
1239        std::cout << std::endl;
1240    }
1241}
1242
1243// simple join last ssaid map
1244static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1245{
1246    for (const auto& entry: src)
1247    {
1248        std::cout << "  entry: " << entry.first.regVar << ":" <<
1249                cxuint(entry.first.index) << ":";
1250        for (size_t v: entry.second)
1251            std::cout << " " << v;
1252        std::cout << std::endl;
1253        auto res = dest.insert(entry); // find
1254        if (res.second)
1255            continue; // added new
1256        VectorSet<size_t>& destEntry = res.first->second;
1257        // add new ways
1258        for (size_t ssaId: entry.second)
1259            destEntry.insertValue(ssaId);
1260        std::cout << "    :";
1261        for (size_t v: destEntry)
1262            std::cout << " " << v;
1263        std::cout << std::endl;
1264    }
1265}
1266
1267// join last SSAIdMap of the routine including later routine call
1268// dest - dest last SSAId map, src - source lastSSAIdMap
1269// laterRdatas - data of subroutine/routine exeuted after src lastSSAIdMap state
1270static void joinLastSSAIdMapInt(LastSSAIdMap& dest, const LastSSAIdMap& src,
1271                    const LastSSAIdMap& laterRdataCurSSAIdMap,
1272                    const LastSSAIdMap& laterRdataLastSSAIdMap, bool loop)
1273{
1274    for (const auto& entry: src)
1275    {
1276        auto lsit = laterRdataLastSSAIdMap.find(entry.first);
1277        if (lsit != laterRdataLastSSAIdMap.end())
1278        {
1279            auto csit = laterRdataCurSSAIdMap.find(entry.first);
1280            if (csit != laterRdataCurSSAIdMap.end() && !csit->second.empty())
1281            {
1282                // if found in last ssa ID map,
1283                // but has first value (some way do not change SSAId)
1284                // then pass to add new ssaIds before this point
1285                if (!lsit->second.hasValue(csit->second[0]))
1286                    continue; // otherwise, skip
1287            }
1288        }
1289        std::cout << "  entry: " << entry.first.regVar << ":" <<
1290                cxuint(entry.first.index) << ":";
1291        for (size_t v: entry.second)
1292            std::cout << " " << v;
1293        std::cout << std::endl;
1294        auto res = dest.insert(entry); // find
1295        if (res.second)
1296            continue; // added new
1297        VectorSet<size_t>& destEntry = res.first->second;
1298        // add new ways
1299        for (size_t ssaId: entry.second)
1300            destEntry.insertValue(ssaId);
1301        std::cout << "    :";
1302        for (size_t v: destEntry)
1303            std::cout << " " << v;
1304        std::cout << std::endl;
1305    }
1306    if (!loop) // do not if loop
1307        joinLastSSAIdMap(dest, laterRdataLastSSAIdMap);
1308}
1309
1310static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1311                    const RoutineData& laterRdata, bool loop = false)
1312{
1313    joinLastSSAIdMapInt(dest, src, laterRdata.curSSAIdMap, laterRdata.lastSSAIdMap, loop);
1314}
1315
1316
1317// join routine data from child call with data from parent routine
1318// (just join child call from parent)
1319static void joinRoutineData(RoutineData& dest, const RoutineData& src,
1320            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1321            bool notFirstReturn)
1322{
1323    // insert readBeforeWrite only if doesnt exists in destination
1324    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1325    dest.origRbwSSAIdMap.insert(src.origRbwSSAIdMap.begin(), src.origRbwSSAIdMap.end());
1326   
1327    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1328   
1329    for (const auto& entry: src.lastSSAIdMap)
1330    {
1331        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1332                cxuint(entry.first.index) << ":";
1333        for (size_t v: entry.second)
1334            std::cout << " " << v;
1335        std::cout << std::endl;
1336        auto res = dest.curSSAIdMap.insert(entry); // find
1337        VectorSet<size_t>& destEntry = res.first->second;
1338       
1339        if (!res.second)
1340        {
1341            // add new ways
1342            for (size_t ssaId: entry.second)
1343                destEntry.insertValue(ssaId);
1344        }
1345        else if (notFirstReturn)
1346        {
1347            auto csit = curSSAIdMap.find(entry.first);
1348            // insert to lastSSAIdMap if no ssaIds for regvar in lastSSAIdMap
1349            dest.lastSSAIdMap.insert({ entry.first,
1350                        { (csit!=curSSAIdMap.end() ? csit->second : 1)-1 } });
1351        }
1352       
1353        std::cout << "    :";
1354        for (size_t v: destEntry)
1355            std::cout << " " << v;
1356        std::cout << std::endl;
1357    }
1358}
1359
1360// reduce retSSAIds for calls (for all read before write SSAIds for current code block)
1361static void reduceSSAIdsForCalls(FlowStackEntry& entry,
1362            const std::vector<CodeBlock>& codeBlocks,
1363            RetSSAIdMap& retSSAIdMap, RoutineMap& routineMap,
1364            SSAReplacesMap& ssaReplacesMap)
1365{
1366    if (retSSAIdMap.empty())
1367        return;
1368    LastSSAIdMap rbwSSAIdMap;
1369    std::unordered_set<AsmSingleVReg> reduced;
1370    std::unordered_set<AsmSingleVReg> changed;
1371    const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1372    // collect rbw SSAIds
1373    for (const NextBlock next: cblock.nexts)
1374        if (next.isCall)
1375        {
1376            auto it = routineMap.find(next.block); // must find
1377            for (const auto& rentry: it->second.rbwSSAIdMap)
1378                rbwSSAIdMap.insertSSAId(rentry.first,rentry.second);
1379           
1380        }
1381    for (const NextBlock next: cblock.nexts)
1382        if (next.isCall)
1383        {
1384            auto it = routineMap.find(next.block); // must find
1385            // add changed
1386            for (const auto& lentry: it->second.lastSSAIdMap)
1387                if (rbwSSAIdMap.find(lentry.first) == rbwSSAIdMap.end())
1388                    changed.insert(lentry.first);
1389        }
1390   
1391    // reduce SSAIds
1392    for (const auto& rentry: retSSAIdMap)
1393    {
1394        auto ssaIdsIt = rbwSSAIdMap.find(rentry.first);
1395        if (ssaIdsIt != rbwSSAIdMap.end())
1396        {
1397            const VectorSet<size_t>& ssaIds = ssaIdsIt->second;
1398            const VectorSet<size_t>& rssaIds = rentry.second.ssaIds;
1399            Array<size_t> outSSAIds(ssaIds.size() + rssaIds.size());
1400            std::copy(rssaIds.begin(), rssaIds.end(), outSSAIds.begin());
1401            std::copy(ssaIds.begin(), ssaIds.end(), outSSAIds.begin()+rssaIds.size());
1402           
1403            std::sort(outSSAIds.begin(), outSSAIds.end());
1404            outSSAIds.resize(std::unique(outSSAIds.begin(), outSSAIds.end()) -
1405                        outSSAIds.begin());
1406            size_t minSSAId = outSSAIds.front();
1407            if (outSSAIds.size() >= 2)
1408            {
1409                for (auto sit = outSSAIds.begin()+1; sit != outSSAIds.end(); ++sit)
1410                    insertReplace(ssaReplacesMap, rentry.first, *sit, minSSAId);
1411               
1412                std::cout << "calls retssa ssaid: " << rentry.first.regVar << ":" <<
1413                        rentry.first.index << std::endl;
1414            }
1415           
1416            for (BlockIndex rblock: rentry.second.routines)
1417                routineMap.find(rblock)->second.lastSSAIdMap[rentry.first] =
1418                            VectorSet<size_t>({ minSSAId });
1419            reduced.insert(rentry.first);
1420        }
1421    }
1422    for (const AsmSingleVReg& vreg: reduced)
1423        retSSAIdMap.erase(vreg);
1424    reduced.clear();
1425       
1426    for (const AsmSingleVReg& vreg: changed)
1427    {
1428        auto rit = retSSAIdMap.find(vreg);
1429        if (rit != retSSAIdMap.end())
1430        {
1431            // if modified
1432            // put before removing to revert for other ways after calls
1433            auto res = entry.prevRetSSAIdSets.insert(*rit);
1434            if (res.second)
1435                res.first->second = rit->second;
1436            // just remove, if some change without read before
1437            retSSAIdMap.erase(rit);
1438        }
1439    }
1440}
1441
1442static void reduceSSAIds2(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1443            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, const SSAEntry& ssaEntry)
1444{
1445    const SSAInfo& sinfo = ssaEntry.second;
1446    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1447    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1448    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1449    {
1450        auto& ssaIds = ssaIdsIt->second.ssaIds;
1451        ssaId = ssaIds.front()+1; // plus one
1452        retSSAIdMap.erase(ssaIdsIt);
1453    }
1454    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1455    {
1456        // put before removing to revert for other ways after calls
1457        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1458        if (res.second)
1459            res.first->second = ssaIdsIt->second;
1460        // just remove, if some change without read before
1461        retSSAIdMap.erase(ssaIdsIt);
1462    }
1463}
1464
1465// reduce retSSAIds (last SSAIds for regvar) while passing by code block
1466// and emits SSA replaces for these ssaids
1467static bool reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1468            RetSSAIdMap& retSSAIdMap, RoutineMap& routineMap,
1469            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
1470{
1471    SSAInfo& sinfo = ssaEntry.second;
1472    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1473    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1474    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1475    {
1476        auto& ssaIds = ssaIdsIt->second.ssaIds;
1477       
1478        if (sinfo.ssaId != SIZE_MAX)
1479        {
1480            VectorSet<size_t> outSSAIds = ssaIds;
1481            outSSAIds.insertValue(ssaId-1); // ???
1482            // already set
1483            if (outSSAIds.size() >= 1)
1484            {
1485                // reduce to minimal ssaId from all calls
1486                std::sort(outSSAIds.begin(), outSSAIds.end());
1487                outSSAIds.resize(std::unique(outSSAIds.begin(), outSSAIds.end()) -
1488                            outSSAIds.begin());
1489                // insert SSA replaces
1490                if (outSSAIds.size() >= 2)
1491                {
1492                    size_t minSSAId = outSSAIds.front();
1493                    for (auto sit = outSSAIds.begin()+1; sit != outSSAIds.end(); ++sit)
1494                        insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1495                }
1496            }
1497        }
1498        else if (ssaIds.size() >= 2)
1499        {
1500            // reduce to minimal ssaId from all calls
1501            std::sort(ssaIds.begin(), ssaIds.end());
1502            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1503            // insert SSA replaces
1504            size_t minSSAId = ssaIds.front();
1505            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1506                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1507            ssaId = minSSAId+1; // plus one
1508        }
1509        else if (ssaIds.size() == 1)
1510            ssaId = ssaIds.front()+1; // plus one
1511       
1512        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1513                ssaEntry.first.index << ": " << ssaId << std::endl;
1514        // replace smallest ssaId in routineMap lastSSAId entry
1515        // reduce SSAIds replaces
1516        for (BlockIndex rblock: ssaIdsIt->second.routines)
1517        {
1518            RoutineData& rdata = routineMap.find(rblock)->second;
1519            size_t rbwRetSSAId = SIZE_MAX;
1520            auto rbwIt = rdata.rbwSSAIdMap.find(ssaEntry.first);
1521            auto rlsit = rdata.lastSSAIdMap.find(ssaEntry.first);
1522            if (rbwIt != rdata.rbwSSAIdMap.end() && rlsit->second.hasValue(rbwIt->second))
1523                rbwRetSSAId = rbwIt->second;
1524            rlsit->second = VectorSet<size_t>({ ssaId-1 });
1525            if (rbwRetSSAId != SIZE_MAX)
1526            {
1527                std::cout << "  keep retSSAId rbw: " << rbwRetSSAId << std::endl;
1528                // add retSSAId without changes (in way without regvar changes)
1529                rlsit->second.insertValue(rbwRetSSAId);
1530            }
1531        }
1532        // finally remove from container (because obsolete)
1533        retSSAIdMap.erase(ssaIdsIt);
1534        return true;
1535    }
1536    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1537    {
1538        // put before removing to revert for other ways after calls
1539        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1540        if (res.second)
1541            res.first->second = ssaIdsIt->second;
1542        // just remove, if some change without read before
1543        retSSAIdMap.erase(ssaIdsIt);
1544    }
1545    return false;
1546}
1547
1548// update single current SSAId for routine and optionally lastSSAIdMap if returns
1549// has been encountered but not regvar
1550static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1551                size_t prevSSAId)
1552{
1553    const SSAInfo& sinfo = ssaEntry.second;
1554    bool beforeFirstAccess = true;
1555    // put first SSAId before write
1556    if (sinfo.readBeforeWrite)
1557    {
1558        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1559        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1560            // if already added
1561            beforeFirstAccess = false;
1562           
1563        rdata.origRbwSSAIdMap.insert({ ssaEntry.first,
1564                        ssaEntry.second.ssaIdBefore }).second;
1565    }
1566   
1567    if (sinfo.ssaIdChange != 0)
1568    {
1569        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1570        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1571        // put last SSAId
1572        if (!res.second)
1573        {
1574            beforeFirstAccess = false;
1575            // if not inserted
1576            VectorSet<size_t>& ssaIds = res.first->second;
1577            ssaIds.clear(); // clear all ssaIds in currentSSAID entry
1578            ssaIds.insertValue(sinfo.ssaIdLast);
1579        }
1580        // add readbefore if in previous returns if not added yet
1581        if (rdata.notFirstReturn && beforeFirstAccess)
1582        {
1583            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1584            for (auto& loopEnd: rdata.loopEnds)
1585                loopEnd.second.ssaIdMap.insert({ ssaEntry.first, { prevSSAId } });
1586        }
1587    }
1588    else
1589    {
1590        // insert read ssaid if no change
1591        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1592        if (!res.second)
1593        {
1594            VectorSet<size_t>& ssaIds = res.first->second;
1595            ssaIds.insertValue(prevSSAId);
1596        }
1597    }
1598}
1599
1600static void initializePrevRetSSAIds(
1601            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1602            const RetSSAIdMap& retSSAIdMap, const RoutineData& rdata,
1603            FlowStackEntry& entry)
1604{
1605    for (const auto& v: rdata.lastSSAIdMap)
1606    {
1607        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1608        if (!res.second)
1609            continue; // already added, do not change
1610        auto rfit = retSSAIdMap.find(v.first);
1611        if (rfit != retSSAIdMap.end())
1612            res.first->second = rfit->second;
1613       
1614        auto csit = curSSAIdMap.find(v.first);
1615        res.first->second.prevSSAId = (csit!=curSSAIdMap.end() ? csit->second : 1);
1616    }
1617}
1618
1619// revert retSSAIdMap while leaving from code block
1620static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1621            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1622{
1623    // revert retSSAIdMap
1624    for (auto v: entry.prevRetSSAIdSets)
1625    {
1626        auto rfit = retSSAIdMap.find(v.first);
1627        if (rdata!=nullptr && rfit != retSSAIdMap.end())
1628        {
1629            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1630            for (size_t ssaId: rfit->second.ssaIds)
1631                ssaIds.eraseValue(ssaId);
1632        }
1633       
1634        if (!v.second.ssaIds.empty())
1635        {
1636            // just add if previously present
1637            if (rfit != retSSAIdMap.end())
1638                rfit->second = v.second;
1639            else
1640                retSSAIdMap.insert(v);
1641        }
1642        else // erase if empty
1643            retSSAIdMap.erase(v.first);
1644       
1645        size_t oldSSAId = curSSAIdMap[v.first]-1;
1646        curSSAIdMap[v.first] = v.second.prevSSAId;
1647        if (rdata!=nullptr)
1648        {
1649            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1650            ssaIds.eraseValue(oldSSAId); // ??? need extra constraints
1651            for (size_t ssaId: v.second.ssaIds)
1652                ssaIds.insertValue(ssaId);
1653            if (v.second.ssaIds.empty())
1654            {
1655                auto cit = curSSAIdMap.find(v.first);
1656                ssaIds.insertValue((cit!=curSSAIdMap.end() ? cit->second : 1)-1);
1657            }
1658           
1659            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1660                    v.first.regVar << ":" << v.first.index << ":";
1661            for (size_t v: ssaIds)
1662                std::cout << " " << v;
1663            std::cout << std::endl;
1664        }
1665    }
1666}
1667
1668// update current SSAId in curSSAIdMap for routine while leaving from code block
1669static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1670            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1671{
1672    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1673    std::cout << " pushentry " << entry.blockIndex << ": " <<
1674                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1675    for (size_t v: ssaIds)
1676        std::cout << " " << v;
1677    std::cout << std::endl;
1678   
1679    // if cblock with some children
1680    if (nextSSAId != curSSAId)
1681        ssaIds.eraseValue(nextSSAId-1);
1682   
1683    // push previous SSAId to lastSSAIdMap (later will be replaced)
1684    ssaIds.insertValue(curSSAId-1);
1685   
1686    std::cout << " popentry " << entry.blockIndex << ": " <<
1687                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1688    for (size_t v: ssaIds)
1689        std::cout << " " << v;
1690    std::cout << std::endl;
1691}
1692
1693static bool tryAddLoopEnd(const FlowStackEntry& entry, BlockIndex routineBlock,
1694                RoutineData& rdata, bool isLoop, bool noMainLoop)
1695{
1696    if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1697    {
1698        // handle loops
1699        std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1700        // add to routine data loopEnds
1701        auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1702        if (loopsit2 != rdata.loopEnds.end())
1703        {
1704            if (!loopsit2->second.passed)
1705                // still in loop join ssaid map
1706                joinLastSSAIdMap(loopsit2->second.ssaIdMap, rdata.curSSAIdMap);
1707        }
1708        else
1709            rdata.loopEnds.insert({ entry.blockIndex, { rdata.curSSAIdMap, false } });
1710        return true;
1711    }
1712    return false;
1713}
1714
1715
1716// TODO: fix curSSAIdMap between recursive call returns
1717static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1718        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1719        const std::unordered_set<BlockIndex>& loopBlocks,
1720        const std::unordered_set<BlockIndex>& callBlocks,
1721        const ResSecondPointsToCache& subroutToCache,
1722        SimpleCache<BlockIndex, RoutineData>& subroutinesCache,
1723        const RoutineMap& routineMap, RoutineData& rdata,
1724        BlockIndex routineBlock, bool noMainLoop = false,
1725        const CBlockBitPool& prevFlowStackBlocks = {})
1726{
1727    std::cout << "--------- createRoutineData ----------------\n";
1728    CBlockBitPool visited(codeBlocks.size(), false);
1729   
1730    VectorSet<BlockIndex> activeLoops;
1731    SubrLoopsMap subrLoopsMap;
1732    SubrLoopsMap loopSubrsMap;
1733    RoutineMap subrDataForLoopMap;
1734    std::deque<FlowStackEntry> flowStack;
1735    CBlockBitPool flowStackBlocks(codeBlocks.size(), false);
1736    if (!prevFlowStackBlocks.empty())
1737        flowStackBlocks = prevFlowStackBlocks;
1738    // last SSA ids map from returns
1739    RetSSAIdMap retSSAIdMap;
1740    flowStack.push_back({ routineBlock, 0 });
1741    flowStackBlocks[routineBlock] = true;
1742   
1743    while (!flowStack.empty())
1744    {
1745        FlowStackEntry& entry = flowStack.back();
1746        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1747       
1748        std::cout << ":: rdata.curSSAIdMap #" << entry.blockIndex << "\n";
1749        for (const auto& v: rdata.curSSAIdMap)
1750        {
1751            std::cout << "  :: " << v.first.regVar << ":" << v.first.index << ":";
1752            for (size_t ssaId: v.second)
1753                std::cout << " " << ssaId;
1754            std::cout << "\n";
1755        }
1756       
1757        auto addSubroutine = [&](
1758            std::unordered_map<BlockIndex, LoopSSAIdMap>::const_iterator loopsit2,
1759            bool applyToMainRoutine)
1760        {
1761            if (subroutinesCache.hasKey(entry.blockIndex))
1762            {
1763                // if already put, just applyToMainRoutine if needed
1764                if (applyToMainRoutine &&
1765                    loopBlocks.find(entry.blockIndex) != loopBlocks.end() &&
1766                    loopsit2 != rdata.loopEnds.end())
1767                {
1768                    RoutineData* subRdata = subroutinesCache.use(entry.blockIndex);
1769                    joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1770                                        *subRdata, true);
1771                }
1772                return;
1773            }
1774           
1775            RoutineData subrData;
1776            const bool oldFB = flowStackBlocks[entry.blockIndex];
1777            flowStackBlocks[entry.blockIndex] = !oldFB;
1778            createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, callBlocks,
1779                    subroutToCache, subroutinesCache, routineMap, subrData,
1780                    entry.blockIndex, true, flowStackBlocks);
1781            RoutineData subrDataCopy;
1782            flowStackBlocks[entry.blockIndex] = oldFB;
1783           
1784            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1785            {   // leave from loop point
1786                std::cout << "   loopfound " << entry.blockIndex << std::endl;
1787                if (loopsit2 != rdata.loopEnds.end())
1788                {
1789                    subrDataCopy = subrData;
1790                    subrDataForLoopMap.insert({ entry.blockIndex, subrDataCopy });
1791                    std::cout << "   loopssaId2Map: " <<
1792                            entry.blockIndex << std::endl;
1793                    joinLastSSAIdMap(subrData.lastSSAIdMap,
1794                            loopsit2->second.ssaIdMap, subrData, true);
1795                    std::cout << "   loopssaIdMap2End: " << std::endl;
1796                    if (applyToMainRoutine)
1797                        joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1798                                        subrDataCopy, true);
1799                }
1800            }
1801           
1802            // apply loop to subroutines
1803            auto it = loopSubrsMap.find(entry.blockIndex);
1804            if (it != loopSubrsMap.end())
1805            {
1806                std::cout << "    found loopsubrsmap: " << entry.blockIndex << ":";
1807                for (BlockIndex subr: it->second)
1808                {
1809                    std::cout << " " << subr;
1810                    RoutineData* subrData2 = subroutinesCache.use(subr);
1811                    if (subrData2 == nullptr)
1812                        continue;
1813                    RoutineData subrData2Copy = *subrData2;
1814                    std::cout << "*";
1815                    joinLastSSAIdMap(subrData2Copy.lastSSAIdMap,
1816                            loopsit2->second.ssaIdMap, subrDataCopy, false);
1817                    // reinsert subroutine into subroutine cache
1818                    subrData2Copy.calculateWeight();
1819                    subroutinesCache.put(subr, subrData2Copy);
1820                }
1821                std::cout << "\n";
1822            }
1823            // apply loops to this subroutine
1824            auto it2 = subrLoopsMap.find(entry.blockIndex);
1825            if (it2 != subrLoopsMap.end())
1826            {
1827                std::cout << "    found subrloopsmap: " << entry.blockIndex << ":";
1828                for (auto lit2 = it2->second.rbegin(); lit2 != it2->second.rend(); ++lit2)
1829                {
1830                    BlockIndex loop = *lit2;
1831                    auto loopsit3 = rdata.loopEnds.find(loop);
1832                    if (loopsit3 == rdata.loopEnds.end() ||
1833                        activeLoops.hasValue(loop))
1834                        continue;
1835                    std::cout << " " << loop;
1836                    auto  itx = subrDataForLoopMap.find(loop);
1837                    if (itx != subrDataForLoopMap.end())
1838                        joinLastSSAIdMap(subrData.lastSSAIdMap,
1839                                loopsit3->second.ssaIdMap, itx->second, false);
1840                }
1841                std::cout << "\n";
1842            }
1843           
1844            subrData.calculateWeight();
1845            subroutinesCache.put(entry.blockIndex, subrData);
1846        };
1847       
1848        if (entry.nextIndex == 0)
1849        {
1850            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1851           
1852            if (!prevFlowStackBlocks.empty() && prevFlowStackBlocks[entry.blockIndex])
1853            {
1854                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1855               
1856                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1857                flowStack.pop_back();
1858                continue;
1859            }
1860           
1861            // process current block
1862            //if (/*cachedRdata != nullptr &&*/
1863                //visited[entry.blockIndex] && flowStack.size() > 1)
1864            const RoutineData* cachedRdata = nullptr;
1865           
1866            if (routineBlock != entry.blockIndex)
1867            {
1868                cachedRdata = subroutinesCache.use(entry.blockIndex);
1869                if (cachedRdata == nullptr)
1870                {
1871                    // try in routine map
1872                    auto rit = routineMap.find(entry.blockIndex);
1873                    if (rit != routineMap.end())
1874                        cachedRdata = &rit->second;
1875                }
1876                if (!isLoop && visited[entry.blockIndex] && cachedRdata == nullptr &&
1877                    subroutToCache.count(entry.blockIndex)!=0)
1878                {
1879                    auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1880                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1881                    addSubroutine(loopsit2, false);
1882                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1883                }
1884            }
1885           
1886            if (cachedRdata != nullptr)
1887            {
1888                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1889                std::cout << "procret2: " << entry.blockIndex << std::endl;
1890                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1891                // get not given rdata curSSAIdMap ssaIds but present in cachedRdata
1892                // curSSAIdMap
1893                for (const auto& entry: cachedRdata->curSSAIdMap)
1894                    if (rdata.curSSAIdMap.find(entry.first) == rdata.curSSAIdMap.end())
1895                    {
1896                        auto cit = curSSAIdMap.find(entry.first);
1897                        size_t prevSSAId = (cit!=curSSAIdMap.end() ? cit->second : 1)-1;
1898                        rdata.curSSAIdMap.insert({ entry.first, { prevSSAId } });
1899                       
1900                        if (rdata.notFirstReturn)
1901                        {
1902                            rdata.lastSSAIdMap.insertSSAId(entry.first, prevSSAId);
1903                            for (auto& loopEnd: rdata.loopEnds)
1904                                loopEnd.second.ssaIdMap.
1905                                        insertSSAId(entry.first, prevSSAId);
1906                        }
1907                    }
1908               
1909                // join loopEnds
1910                for (const auto& loopEnd: cachedRdata->loopEnds)
1911                {
1912                    auto res = rdata.loopEnds.insert({ loopEnd.first, LoopSSAIdMap{} });
1913                    // true - do not add cached rdata loopend, because it was added
1914                    joinLastSSAIdMapInt(res.first->second.ssaIdMap, rdata.curSSAIdMap,
1915                                cachedRdata->curSSAIdMap, loopEnd.second.ssaIdMap, true);
1916                }
1917                std::cout << "procretend2" << std::endl;
1918                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1919                flowStack.pop_back();
1920                continue;
1921            }
1922            else if (!visited[entry.blockIndex])
1923            {
1924                // set up loops for which subroutine is present
1925                if (subroutToCache.count(entry.blockIndex)!=0 && !activeLoops.empty())
1926                {
1927                    subrLoopsMap.insert({ entry.blockIndex, activeLoops });
1928                    for (BlockIndex loop: activeLoops)
1929                    {
1930                        auto res = loopSubrsMap.insert({ loop, { entry.blockIndex } });
1931                        if (!res.second)
1932                            res.first->second.insertValue(entry.blockIndex);
1933                    }
1934                }
1935               
1936                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1937                    activeLoops.insertValue(entry.blockIndex);
1938                std::cout << "proc: " << entry.blockIndex << std::endl;
1939                visited[entry.blockIndex] = true;
1940               
1941                for (const auto& ssaEntry: cblock.ssaInfoMap)
1942                    if (ssaEntry.first.regVar != nullptr)
1943                    {
1944                        reduceSSAIds2(curSSAIdMap, retSSAIdMap, entry, ssaEntry);
1945                        // put data to routine data
1946                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1947                       
1948                        if (ssaEntry.second.ssaIdChange!=0)
1949                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1950                    }
1951            }
1952            else
1953            {
1954                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1955                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1956                flowStack.pop_back();
1957                continue;
1958            }
1959        }
1960       
1961        // join and skip calls
1962        {
1963            std::vector<BlockIndex> calledRoutines;
1964            for (; entry.nextIndex < cblock.nexts.size() &&
1965                        cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1966            {
1967                BlockIndex rblock = cblock.nexts[entry.nextIndex].block;
1968                if (callBlocks.find(rblock) != callBlocks.end())
1969                    rblock.pass = 1;
1970                if (rblock != routineBlock)
1971                    calledRoutines.push_back(rblock);
1972            }
1973           
1974            if (!calledRoutines.empty())
1975            {
1976                // toNotClear - regvar to no keep (because is used in called routines)
1977                std::unordered_set<AsmSingleVReg> toNotClear;
1978                // if regvar any called routine (used)
1979                std::unordered_set<AsmSingleVReg> allInCalls;
1980                for (BlockIndex rblock: calledRoutines)
1981                {
1982                    const RoutineData& srcRdata = routineMap.find(rblock)->second;
1983                    // for next recursion pass call - choose origRvwSSAIdMap
1984                    // otherwise - standard rbwSsaIdMap
1985                    const std::unordered_map<AsmSingleVReg, size_t>& srcRbwSSAIdMap =
1986                        (entry.blockIndex.pass == 0 && rblock.pass!=0) ?
1987                        srcRdata.origRbwSSAIdMap : srcRdata.rbwSSAIdMap;
1988                    if (entry.blockIndex.pass == 0 && rblock.pass!=0)
1989                        std::cout << "choose origRbwSSAIdMap: " << rblock << std::endl;
1990                       
1991                    for (const auto& rbw: srcRbwSSAIdMap)
1992                    {
1993                        allInCalls.insert(rbw.first);
1994                        auto lsit = srcRdata.lastSSAIdMap.find(rbw.first);
1995                        if (lsit != srcRdata.lastSSAIdMap.end() &&
1996                             lsit->second.hasValue(rbw.second))
1997                            // if returned not modified, then do not clear this regvar
1998                            toNotClear.insert(rbw.first);
1999                    }
2000                    for (const auto& rbw: srcRdata.lastSSAIdMap)
2001                        allInCalls.insert(rbw.first);
2002                }
2003                for (auto& entry: rdata.curSSAIdMap)
2004                    // if any called routine and if to clear
2005                    if (allInCalls.find(entry.first) != allInCalls.end() &&
2006                        toNotClear.find(entry.first) == toNotClear.end())
2007                        // not found
2008                        entry.second.clear();
2009           
2010                for (BlockIndex rblock: calledRoutines)
2011                    joinRoutineData(rdata, routineMap.find(rblock)->second,
2012                                    curSSAIdMap, rdata.notFirstReturn);
2013            }
2014        }
2015       
2016        if (entry.nextIndex < cblock.nexts.size())
2017        {
2018            const BlockIndex nextBlock = { cblock.nexts[entry.nextIndex].block,
2019                        entry.blockIndex.pass };
2020            flowStack.push_back({ nextBlock, 0 });
2021            // negate - if true (already in flowstack, then popping keep this state)
2022            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
2023            entry.nextIndex++;
2024        }
2025        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2026                // if have any call then go to next block
2027                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2028                 !cblock.haveReturn && !cblock.haveEnd)
2029        {
2030            if (entry.nextIndex!=0) // if back from calls (just return from calls)
2031            {
2032                for (const NextBlock& next: cblock.nexts)
2033                    if (next.isCall)
2034                    {
2035                        //std::cout << "joincall:"<< next.block << std::endl;
2036                        BlockIndex rblock(next.block, entry.blockIndex.pass);
2037                        if (callBlocks.find(next.block) != callBlocks.end())
2038                            rblock.pass = 1;
2039                        auto it = routineMap.find(rblock); // must find
2040                        initializePrevRetSSAIds(curSSAIdMap, retSSAIdMap,
2041                                    it->second, entry);
2042                       
2043                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, rblock);
2044                    }
2045            }
2046            const BlockIndex nextBlock = entry.blockIndex+1;
2047            flowStack.push_back({ nextBlock, 0 });
2048            // negate - if true (already in flowstack, then popping keep this state)
2049            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
2050            entry.nextIndex++;
2051        }
2052        else
2053        {
2054            std::cout << "popstart: " << entry.blockIndex << std::endl;
2055            if (cblock.haveReturn)
2056            {
2057                std::cout << "procret: " << entry.blockIndex << std::endl;
2058                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
2059                std::cout << "procretend" << std::endl;
2060                rdata.notFirstReturn = true;
2061            }
2062           
2063            // revert retSSAIdMap
2064            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
2065            //
2066           
2067            for (const auto& ssaEntry: cblock.ssaInfoMap)
2068            {
2069                if (ssaEntry.first.regVar == nullptr)
2070                    continue;
2071                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
2072                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
2073                    ssaEntry.second.ssaIdLast+1 : curSSAId;
2074                curSSAIdMap[ssaEntry.first] = curSSAId;
2075               
2076                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2077                            ":" << ssaEntry.first.index << ": " <<
2078                            nextSSAId << ", " << curSSAId << std::endl;
2079               
2080                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
2081            }
2082           
2083            activeLoops.eraseValue(entry.blockIndex);
2084           
2085            auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
2086            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
2087            {
2088                if (loopsit2 != rdata.loopEnds.end())
2089                {
2090                    std::cout << "   mark loopblocks passed: " <<
2091                                entry.blockIndex << std::endl;
2092                    // mark that loop has passed fully
2093                    loopsit2->second.passed = true;
2094                }
2095                else
2096                    std::cout << "   loopblocks nopassed: " <<
2097                                entry.blockIndex << std::endl;
2098            }
2099           
2100            if ((!noMainLoop || flowStack.size() > 1) &&
2101                subroutToCache.count(entry.blockIndex)!=0)
2102            { //put to cache
2103                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
2104                addSubroutine(loopsit2, true);
2105            }
2106           
2107            flowStackBlocks[entry.blockIndex] = false;
2108            std::cout << "pop: " << entry.blockIndex << std::endl;
2109            flowStack.pop_back();
2110        }
2111    }
2112    std::cout << "--------- createRoutineData end ------------\n";
2113}
2114
2115
2116void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
2117{
2118    if (codeBlocks.empty())
2119        return;
2120    usageHandler.rewind();
2121    auto cbit = codeBlocks.begin();
2122    AsmRegVarUsage rvu;
2123    if (!usageHandler.hasNext())
2124        return; // do nothing if no regusages
2125    rvu = usageHandler.nextUsage();
2126   
2127    cxuint regRanges[MAX_REGTYPES_NUM*2];
2128    cxuint realRegsCount[MAX_REGTYPES_NUM];
2129    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
2130    size_t regTypesNum;
2131    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2132   
2133    while (true)
2134    {
2135        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
2136        {
2137            cbit->usagePos = usageHandler.getReadPos();
2138            ++cbit;
2139        }
2140        if (cbit == codeBlocks.end())
2141            break;
2142        // skip rvu's before codeblock
2143        while (rvu.offset < cbit->start && usageHandler.hasNext())
2144            rvu = usageHandler.nextUsage();
2145        if (rvu.offset < cbit->start)
2146            break;
2147       
2148        cbit->usagePos = usageHandler.getReadPos();
2149        while (rvu.offset < cbit->end)
2150        {
2151            // process rvu
2152            // only if regVar
2153            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2154            {
2155                auto res = cbit->ssaInfoMap.insert(
2156                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
2157               
2158                SSAInfo& sinfo = res.first->second;
2159                if (res.second)
2160                    sinfo.firstPos = rvu.offset;
2161                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
2162                    // if first write RVU instead read RVU
2163                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
2164                    sinfo.readBeforeWrite = true;
2165                /* change SSA id only for write-only regvars -
2166                 *   read-write place can not have two different variables */
2167                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
2168                    sinfo.ssaIdChange++;
2169                if (rvu.regVar==nullptr)
2170                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
2171                            sinfo.ssaId = sinfo.ssaIdLast = 0;
2172            }
2173            // get next rvusage
2174            if (!usageHandler.hasNext())
2175                break;
2176            rvu = usageHandler.nextUsage();
2177        }
2178        ++cbit;
2179    }
2180   
2181    size_t rbwCount = 0;
2182    size_t wrCount = 0;
2183   
2184    SimpleCache<BlockIndex, RoutineData> subroutinesCache(codeBlocks.size()<<3);
2185   
2186    std::deque<CallStackEntry> callStack;
2187    std::deque<FlowStackEntry> flowStack;
2188    // total SSA count
2189    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
2190    // last SSA ids map from returns
2191    RetSSAIdMap retSSAIdMap;
2192    // last SSA ids in current way in code flow
2193    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
2194    // routine map - routine datas map, value - last SSA ids map
2195    RoutineMap routineMap;
2196    // key - current res first key, value - previous first key and its flowStack pos
2197    PrevWaysIndexMap prevWaysIndexMap;
2198    // to track ways last block indices pair: block index, flowStackPos)
2199    std::pair<BlockIndex, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
2200    CBlockBitPool isRoutineGen(codeBlocks.size(), false);
2201   
2202    CBlockBitPool waysToCache(codeBlocks.size(), false);
2203    CBlockBitPool flowStackBlocks(codeBlocks.size(), false);
2204    // subroutToCache - true if given block begin subroutine to cache
2205    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
2206    CBlockBitPool visited(codeBlocks.size(), false);
2207    flowStack.push_back({ 0, 0 });
2208    flowStackBlocks[0] = true;
2209    std::unordered_set<BlockIndex> callBlocks;
2210    std::unordered_set<BlockIndex> loopBlocks;
2211    std::unordered_set<size_t> recurseBlocks;
2212   
2213    std::unordered_map<size_t, std::unordered_map<AsmSingleVReg, size_t> >
2214            curSSAIdMapStateMap;
2215   
2216    while (!flowStack.empty())
2217    {
2218        FlowStackEntry& entry = flowStack.back();
2219        CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
2220       
2221        if (entry.nextIndex == 0)
2222        {
2223            // process current block
2224            if (!visited[entry.blockIndex])
2225            {
2226                std::cout << "proc: " << entry.blockIndex << std::endl;
2227                visited[entry.blockIndex] = true;
2228               
2229                for (auto& ssaEntry: cblock.ssaInfoMap)
2230                {
2231                    // TODO: correct pass by second pass in recursion
2232                    SSAInfo& sinfo = ssaEntry.second;
2233                    if (ssaEntry.first.regVar==nullptr)
2234                    {
2235                        // TODO - pass registers through SSA marking and resolving
2236                        sinfo.ssaIdChange = 0; // zeroing SSA changes
2237                        continue; // no change for registers
2238                    }
2239                   
2240                    if (sinfo.ssaId != SIZE_MAX)
2241                    {
2242                        // already initialized
2243                        reduceSSAIds(curSSAIdMap, retSSAIdMap,
2244                                routineMap, ssaReplacesMap, entry, ssaEntry);
2245                        if (sinfo.ssaIdChange!=0)
2246                            curSSAIdMap[ssaEntry.first] = sinfo.ssaIdLast+1;
2247                       
2248                        // count read before writes (for cache weight)
2249                        if (sinfo.readBeforeWrite)
2250                            rbwCount++;
2251                        if (sinfo.ssaIdChange!=0)
2252                            wrCount++;
2253                        continue;
2254                    }
2255                   
2256                    bool reducedSSAId = reduceSSAIds(curSSAIdMap, retSSAIdMap,
2257                                routineMap, ssaReplacesMap, entry, ssaEntry);
2258                   
2259                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
2260                   
2261                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
2262                    if (totalSSACount == 0)
2263                    {
2264                        // first read before write at all, need change totalcount, ssaId
2265                        ssaId++;
2266                        totalSSACount++;
2267                    }
2268                   
2269                    sinfo.ssaId = totalSSACount;
2270                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
2271                    sinfo.ssaIdBefore = ssaId-1;
2272                   
2273                    totalSSACount += sinfo.ssaIdChange;
2274                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
2275                    //totalSSACount = std::max(totalSSACount, ssaId);
2276                    if (!reducedSSAId || sinfo.ssaIdChange!=0)
2277                        ssaId = totalSSACount;
2278                   
2279                    // count read before writes (for cache weight)
2280                    if (sinfo.readBeforeWrite)
2281                        rbwCount++;
2282                    if (sinfo.ssaIdChange!=0)
2283                        wrCount++;
2284                }
2285            }
2286            else
2287            {
2288                // handle caching for res second point
2289                cblocksToCache.increase(entry.blockIndex);
2290                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
2291                            cblocksToCache.count(entry.blockIndex) << std::endl;
2292                // back, already visited
2293                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
2294                flowStack.pop_back();
2295               
2296                BlockIndex curWayBIndex = flowStack.back().blockIndex;
2297                if (lastCommonCacheWayPoint.first != SIZE_MAX)
2298                {
2299                    // mark point of way to cache (res first point)
2300                    waysToCache[lastCommonCacheWayPoint.first] = true;
2301                    std::cout << "mark to pfcache " <<
2302                            lastCommonCacheWayPoint.first << ", " <<
2303                            curWayBIndex << std::endl;
2304                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
2305                }
2306                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
2307                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
2308                continue;
2309            }
2310        }
2311       
2312        if (!callStack.empty() &&
2313            entry.blockIndex == callStack.back().callBlock &&
2314            entry.nextIndex-1 == callStack.back().callNextIndex)
2315        {
2316            std::cout << " ret: " << entry.blockIndex << std::endl;
2317            const BlockIndex routineBlock = callStack.back().routineBlock;
2318            RoutineData& prevRdata = routineMap.find(routineBlock)->second;
2319            if (!isRoutineGen[routineBlock])
2320            {
2321                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, callBlocks,
2322                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
2323                            routineBlock);
2324                //prevRdata.compare(myRoutineData);
2325                isRoutineGen[routineBlock] = true;
2326               
2327                auto csimsmit = curSSAIdMapStateMap.find(routineBlock.index);
2328                if (csimsmit != curSSAIdMapStateMap.end() && entry.blockIndex.pass==0)
2329                {
2330                    std::cout << " get curSSAIdMap from back recur 2" << std::endl;
2331                    curSSAIdMap = csimsmit->second;
2332                    curSSAIdMapStateMap.erase(csimsmit);
2333                }
2334            }
2335           
2336            callStack.pop_back(); // just return from call
2337            callBlocks.erase(routineBlock);
2338        }
2339       
2340        if (entry.nextIndex < cblock.nexts.size())
2341        {
2342            bool isCall = false;
2343            BlockIndex nextBlock = cblock.nexts[entry.nextIndex].block;
2344            nextBlock.pass = entry.blockIndex.pass;
2345            if (cblock.nexts[entry.nextIndex].isCall)
2346            {
2347                bool nextRecursion = false;
2348                if (!callBlocks.insert(nextBlock).second)
2349                {
2350                    // if already called (then it is recursion)
2351                    nextRecursion = recurseBlocks.insert(nextBlock.index).second;
2352                    if (nextRecursion)
2353                    {
2354                        std::cout << "   -- recursion: " << nextBlock << std::endl;
2355                        nextBlock.pass = 1;
2356                       
2357                        curSSAIdMapStateMap.insert({ nextBlock.index,  curSSAIdMap });
2358                    }
2359                    else
2360                    {
2361                        entry.nextIndex++;
2362                        std::cout << " NO call (rec): " << entry.blockIndex << std::endl;
2363                        continue;
2364                    }
2365                }
2366                else if (entry.blockIndex.pass==1 &&
2367                    recurseBlocks.find(nextBlock.index) != recurseBlocks.end())
2368                {
2369                    entry.nextIndex++;
2370                    std::cout << " NO call (rec)2: " << entry.blockIndex << std::endl;
2371                    continue;
2372                }
2373                std::cout << " call: " << entry.blockIndex << std::endl;
2374                               
2375                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
2376                routineMap.insert({ nextBlock, { } });
2377                isCall = true;
2378            }
2379           
2380            flowStack.push_back({ nextBlock, 0, isCall });
2381            if (flowStackBlocks[nextBlock])
2382            {
2383                if (!cblock.nexts[entry.nextIndex].isCall)
2384                    loopBlocks.insert(nextBlock);
2385                flowStackBlocks[nextBlock] = false; // keep to inserted in popping
2386            }
2387            else
2388                flowStackBlocks[nextBlock] = true;
2389            entry.nextIndex++;
2390        }
2391        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2392                // if have any call then go to next block
2393                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2394                 !cblock.haveReturn && !cblock.haveEnd)
2395        {
2396            if (entry.nextIndex!=0) // if back from calls (just return from calls)
2397            {
2398                reduceSSAIdsForCalls(entry, codeBlocks, retSSAIdMap, routineMap,
2399                                     ssaReplacesMap);
2400                //
2401                for (const NextBlock& next: cblock.nexts)
2402                    if (next.isCall)
2403                    {
2404                        //std::cout << "joincall:"<< next.block << std::endl;
2405                        size_t pass = 0;
2406                        if (callBlocks.find(next.block) != callBlocks.end())
2407                        {
2408                            std::cout << " is secpass: " << entry.blockIndex << " : " <<
2409                                    next.block << std::endl;
2410                            pass = 1; // it ways second pass
2411                        }
2412                       
2413                        auto it = routineMap.find({ next.block, pass }); // must find
2414                        initializePrevRetSSAIds(curSSAIdMap, retSSAIdMap,
2415                                    it->second, entry);
2416                       
2417                        BlockIndex rblock(next.block, entry.blockIndex.pass);
2418                        if (callBlocks.find(next.block) != callBlocks.end())
2419                            rblock.pass = 1;
2420                       
2421                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, rblock);
2422                    }
2423            }
2424            flowStack.push_back({ entry.blockIndex+1, 0, false });
2425            if (flowStackBlocks[entry.blockIndex+1])
2426            {
2427                loopBlocks.insert(entry.blockIndex+1);
2428                 // keep to inserted in popping
2429                flowStackBlocks[entry.blockIndex+1] = false;
2430            }
2431            else
2432                flowStackBlocks[entry.blockIndex+1] = true;
2433            entry.nextIndex++;
2434        }
2435        else // back
2436        {
2437            // revert retSSAIdMap
2438            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, nullptr);
2439            //
2440           
2441            for (const auto& ssaEntry: cblock.ssaInfoMap)
2442            {
2443                if (ssaEntry.first.regVar == nullptr)
2444                    continue;
2445               
2446                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
2447                const size_t nextSSAId = curSSAId;
2448                curSSAId = ssaEntry.second.ssaIdBefore+1;
2449               
2450                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2451                            ":" << ssaEntry.first.index << ": " <<
2452                            nextSSAId << ", " << curSSAId << std::endl;
2453            }
2454           
2455            std::cout << "pop: " << entry.blockIndex << std::endl;
2456            flowStackBlocks[entry.blockIndex] = false;
2457           
2458            if (!flowStack.empty() && flowStack.back().isCall)
2459            {
2460                auto csimsmit = curSSAIdMapStateMap.find(entry.blockIndex.index);
2461                if (csimsmit != curSSAIdMapStateMap.end())
2462                {
2463                    std::cout << " get curSSAIdMap from back recur" << std::endl;
2464                    curSSAIdMap = csimsmit->second;
2465                }
2466            }
2467            flowStack.pop_back();
2468           
2469            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
2470                    lastCommonCacheWayPoint.second >= flowStack.size())
2471            {
2472                lastCommonCacheWayPoint =
2473                        { flowStack.back().blockIndex, flowStack.size()-1 };
2474                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
2475            }
2476        }
2477    }
2478   
2479    /**********
2480     * after that, we find points to resolve conflicts
2481     **********/
2482    flowStack.clear();
2483    std::deque<FlowStackEntry2> flowStack2;
2484   
2485    std::fill(visited.begin(), visited.end(), false);
2486    flowStack2.push_back({ 0, 0 });
2487   
2488    SimpleCache<BlockIndex, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
2489    SimpleCache<BlockIndex, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
2490   
2491    while (!flowStack2.empty())
2492    {
2493        FlowStackEntry2& entry = flowStack2.back();
2494        CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
2495       
2496        if (entry.nextIndex == 0)
2497        {
2498            // process current block
2499            if (!visited[entry.blockIndex])
2500                visited[entry.blockIndex] = true;
2501            else
2502            {
2503                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
2504                            prevWaysIndexMap, waysToCache, cblocksToCache,
2505                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
2506               
2507                // back, already visited
2508                flowStack2.pop_back();
2509                continue;
2510            }
2511        }
2512       
2513        if (entry.nextIndex < cblock.nexts.size())
2514        {
2515            flowStack2.push_back({
2516                { cblock.nexts[entry.nextIndex].block, entry.blockIndex.pass }, 0 });
2517            entry.nextIndex++;
2518        }
2519        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2520                // if have any call then go to next block
2521                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2522                 !cblock.haveReturn && !cblock.haveEnd)
2523        {
2524            flowStack2.push_back({ entry.blockIndex+1, 0 });
2525            entry.nextIndex++;
2526        }
2527        else // back
2528        {
2529            if (cblocksToCache.count(entry.blockIndex)==2 &&
2530                !resSecondPointsCache.hasKey(entry.blockIndex))
2531                // add to cache
2532                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
2533                            entry.blockIndex);
2534            flowStack2.pop_back();
2535        }
2536    }
2537}
2538
2539void AsmRegAllocator::applySSAReplaces()
2540{
2541    /* prepare SSA id replaces */
2542    struct MinSSAGraphNode
2543    {
2544        size_t minSSAId;
2545        bool visited;
2546        std::unordered_set<size_t> nexts;
2547        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
2548    };
2549    struct MinSSAGraphStackEntry
2550    {
2551        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
2552        std::unordered_set<size_t>::const_iterator nextIt;
2553        size_t minSSAId;
2554    };
2555   
2556    for (auto& entry: ssaReplacesMap)
2557    {
2558        VectorSet<SSAReplace>& replaces = entry.second;
2559        std::sort(replaces.begin(), replaces.end());
2560        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
2561        VectorSet<SSAReplace> newReplaces;
2562       
2563        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
2564       
2565        auto it = replaces.begin();
2566        while (it != replaces.end())
2567        {
2568            auto itEnd = std::upper_bound(it, replaces.end(),
2569                            std::make_pair(it->first, size_t(SIZE_MAX)));
2570            {
2571                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2572                node.minSSAId = std::min(node.minSSAId, it->second);
2573                for (auto it2 = it; it2 != itEnd; ++it2)
2574                    node.nexts.insert(it->second);
2575            }
2576            it = itEnd;
2577        }
2578        // propagate min value
2579        std::stack<MinSSAGraphStackEntry> minSSAStack;
2580        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
2581                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
2582        {
2583            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2584            // traverse with minimalize SSA id
2585            while (!minSSAStack.empty())
2586            {
2587                MinSSAGraphStackEntry& entry = minSSAStack.top();
2588                MinSSAGraphNode& node = entry.nodeIt->second;
2589                bool toPop = false;
2590                if (entry.nextIt == node.nexts.begin())
2591                {
2592                    if (!node.visited)
2593                        node.visited = true;
2594                    else
2595                        toPop = true;
2596                }
2597                if (!toPop && entry.nextIt != node.nexts.end())
2598                {
2599                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2600                    if (nodeIt != ssaGraphNodes.end())
2601                    {
2602                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2603                                nodeIt->second.minSSAId });
2604                    }
2605                    ++entry.nextIt;
2606                }
2607                else
2608                {
2609                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2610                    minSSAStack.pop();
2611                    if (!minSSAStack.empty())
2612                    {
2613                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2614                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2615                    }
2616                }
2617            }
2618            // skip visited nodes
2619            while (ssaGraphNodeIt != ssaGraphNodes.end())
2620                if (!ssaGraphNodeIt->second.visited)
2621                    break;
2622        }
2623       
2624        for (const auto& entry: ssaGraphNodes)
2625            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2626       
2627        std::sort(newReplaces.begin(), newReplaces.end());
2628        entry.second = newReplaces;
2629    }
2630   
2631    /* apply SSA id replaces */
2632    for (CodeBlock& cblock: codeBlocks)
2633        for (auto& ssaEntry: cblock.ssaInfoMap)
2634        {
2635            auto it = ssaReplacesMap.find(ssaEntry.first);
2636            if (it == ssaReplacesMap.end())
2637                continue;
2638            SSAInfo& sinfo = ssaEntry.second;
2639            VectorSet<SSAReplace>& replaces = it->second;
2640            if (sinfo.readBeforeWrite)
2641            {
2642                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2643                                 ssaEntry.second.ssaIdBefore);
2644                if (rit != replaces.end())
2645                    sinfo.ssaIdBefore = rit->second; // replace
2646            }
2647            if (sinfo.ssaIdFirst != SIZE_MAX)
2648            {
2649                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2650                                 ssaEntry.second.ssaIdFirst);
2651                if (rit != replaces.end())
2652                    sinfo.ssaIdFirst = rit->second; // replace
2653            }
2654            if (sinfo.ssaIdLast != SIZE_MAX)
2655            {
2656                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2657                                 ssaEntry.second.ssaIdLast);
2658                if (rit != replaces.end())
2659                    sinfo.ssaIdLast = rit->second; // replace
2660            }
2661        }
2662}
2663
2664struct Liveness
2665{
2666    std::map<size_t, size_t> l;
2667   
2668    Liveness() { }
2669   
2670    void clear()
2671    { l.clear(); }
2672   
2673    void expand(size_t k)
2674    {
2675        if (l.empty())
2676            l.insert(std::make_pair(k, k+1));
2677        else
2678        {
2679            auto it = l.end();
2680            --it;
2681            it->second = k+1;
2682        }
2683    }
2684    void newRegion(size_t k)
2685    {
2686        if (l.empty())
2687            l.insert(std::make_pair(k, k));
2688        else
2689        {
2690            auto it = l.end();
2691            --it;
2692            if (it->first != k && it->second != k)
2693                l.insert(std::make_pair(k, k));
2694        }
2695    }
2696   
2697    void insert(size_t k, size_t k2)
2698    {
2699        auto it1 = l.lower_bound(k);
2700        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2701            --it1;
2702        if (it1->second < k)
2703            ++it1;
2704        auto it2 = l.lower_bound(k2);
2705        if (it1!=it2)
2706        {
2707            k = std::min(k, it1->first);
2708            k2 = std::max(k2, (--it2)->second);
2709            l.erase(it1, it2);
2710        }
2711        l.insert(std::make_pair(k, k2));
2712    }
2713   
2714    bool contain(size_t t) const
2715    {
2716        auto it = l.lower_bound(t);
2717        if (it==l.begin() && it->first>t)
2718            return false;
2719        if (it==l.end() || it->first>t)
2720            --it;
2721        return it->first<=t && t<it->second;
2722    }
2723   
2724    bool common(const Liveness& b) const
2725    {
2726        auto i = l.begin();
2727        auto j = b.l.begin();
2728        for (; i != l.end() && j != b.l.end();)
2729        {
2730            if (i->first==i->second)
2731            {
2732                ++i;
2733                continue;
2734            }
2735            if (j->first==j->second)
2736            {
2737                ++j;
2738                continue;
2739            }
2740            if (i->first<j->first)
2741            {
2742                if (i->second > j->first)
2743                    return true; // common place
2744                ++i;
2745            }
2746            else
2747            {
2748                if (i->first < j->second)
2749                    return true; // common place
2750                ++j;
2751            }
2752        }
2753        return false;
2754    }
2755};
2756
2757typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2758
2759static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2760            const AsmSingleVReg& svreg)
2761{
2762    cxuint regType; // regtype
2763    if (svreg.regVar!=nullptr)
2764        regType = svreg.regVar->type;
2765    else
2766        for (regType = 0; regType < regTypesNum; regType++)
2767            if (svreg.index >= regRanges[regType<<1] &&
2768                svreg.index < regRanges[(regType<<1)+1])
2769                break;
2770    return regType;
2771}
2772
2773static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2774        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2775        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2776{
2777    size_t ssaId;
2778    if (svreg.regVar==nullptr)
2779        ssaId = 0;
2780    else if (ssaIdIdx==0)
2781        ssaId = ssaInfo.ssaIdBefore;
2782    else if (ssaIdIdx==1)
2783        ssaId = ssaInfo.ssaIdFirst;
2784    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2785        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2786    else // last
2787        ssaId = ssaInfo.ssaIdLast;
2788   
2789    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2790    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2791    const std::vector<size_t>& ssaIdIndices =
2792                vregIndexMap.find(svreg)->second;
2793    return livenesses[regType][ssaIdIndices[ssaId]];
2794}
2795
2796typedef std::deque<FlowStackEntry3>::const_iterator FlowStackCIter;
2797
2798struct CLRX_INTERNAL VRegLastPos
2799{
2800    size_t ssaId; // last SSA id
2801    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2802};
2803
2804/* TODO: add handling calls
2805 * handle many start points in this code (for example many kernel's in same code)
2806 * replace sets by vector, and sort and remove same values on demand
2807 */
2808
2809typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2810
2811static void putCrossBlockLivenesses(const std::deque<FlowStackEntry3>& flowStack,
2812        const std::vector<CodeBlock>& codeBlocks,
2813        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2814        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2815        size_t regTypesNum, const cxuint* regRanges)
2816{
2817    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2818    for (const auto& entry: cblock.ssaInfoMap)
2819        if (entry.second.readBeforeWrite)
2820        {
2821            // find last
2822            auto lvrit = lastVRegMap.find(entry.first);
2823            if (lvrit == lastVRegMap.end())
2824                continue; // not found
2825            const VRegLastPos& lastPos = lvrit->second;
2826            FlowStackCIter flit = lastPos.blockChain.back();
2827            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2828            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2829            const std::vector<size_t>& ssaIdIndices =
2830                        vregIndexMap.find(entry.first)->second;
2831            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2832            FlowStackCIter flitEnd = flowStack.end();
2833            --flitEnd; // before last element
2834            // insert live time to last seen position
2835            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2836            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2837            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2838                    toLiveCvt + lastBlk.end);
2839            for (++flit; flit != flitEnd; ++flit)
2840            {
2841                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2842                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2843                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2844            }
2845        }
2846}
2847
2848static void putCrossBlockForLoop(const std::deque<FlowStackEntry3>& flowStack,
2849        const std::vector<CodeBlock>& codeBlocks,
2850        const Array<size_t>& codeBlockLiveTimes,
2851        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2852        size_t regTypesNum, const cxuint* regRanges)
2853{
2854    auto flitStart = flowStack.end();
2855    --flitStart;
2856    size_t curBlock = flitStart->blockIndex;
2857    // find step in way
2858    while (flitStart->blockIndex != curBlock) --flitStart;
2859    auto flitEnd = flowStack.end();
2860    --flitEnd;
2861    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2862   
2863    // collect var to check
2864    size_t flowPos = 0;
2865    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2866    {
2867        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2868        for (const auto& entry: cblock.ssaInfoMap)
2869        {
2870            const SSAInfo& sinfo = entry.second;
2871            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2872                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2873            varMap[entry.first] = { lastSSAId, flowPos };
2874        }
2875    }
2876    // find connections
2877    flowPos = 0;
2878    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2879    {
2880        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2881        for (const auto& entry: cblock.ssaInfoMap)
2882        {
2883            const SSAInfo& sinfo = entry.second;
2884            auto varMapIt = varMap.find(entry.first);
2885            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2886                flowPos > varMapIt->second.second ||
2887                sinfo.ssaIdBefore != varMapIt->second.first)
2888                continue;
2889            // just connect
2890           
2891            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2892            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2893            const std::vector<size_t>& ssaIdIndices =
2894                        vregIndexMap.find(entry.first)->second;
2895            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2896           
2897            if (flowPos == varMapIt->second.second)
2898            {
2899                // fill whole loop
2900                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2901                {
2902                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2903                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2904                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2905                }
2906                continue;
2907            }
2908           
2909            size_t flowPos2 = 0;
2910            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2911            {
2912                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2913                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2914                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2915            }
2916            // insert liveness for last block in loop of last SSAId (prev round)
2917            auto flit2 = flitStart + flowPos;
2918            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2919            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2920            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2921                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2922            // insert liveness for first block in loop of last SSAId
2923            flit2 = flitStart + (varMapIt->second.second+1);
2924            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2925            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2926            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2927                    toLiveCvt + lastBlk.end);
2928            // fill up loop end
2929            for (++flit2; flit2 != flitEnd; ++flit2)
2930            {
2931                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2932                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2933                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2934            }
2935        }
2936    }
2937}
2938
2939struct LiveBlock
2940{
2941    size_t start;
2942    size_t end;
2943    size_t vidx;
2944   
2945    bool operator==(const LiveBlock& b) const
2946    { return start==b.start && end==b.end && vidx==b.vidx; }
2947   
2948    bool operator<(const LiveBlock& b) const
2949    { return start<b.start || (start==b.start &&
2950            (end<b.end || (end==b.end && vidx<b.vidx))); }
2951};
2952
2953typedef AsmRegAllocator::LinearDep LinearDep;
2954typedef AsmRegAllocator::EqualToDep EqualToDep;
2955typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2956typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2957
2958static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2959            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2960            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2961            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2962            size_t regTypesNum, const cxuint* regRanges)
2963{
2964    // add linear deps
2965    cxuint count = ldeps[0];
2966    cxuint pos = 1;
2967    cxbyte rvuAdded = 0;
2968    for (cxuint i = 0; i < count; i++)
2969    {
2970        cxuint ccount = ldeps[pos++];
2971        std::vector<size_t> vidxes;
2972        cxuint regType = UINT_MAX;
2973        cxbyte align = rvus[ldeps[pos]].align;
2974        for (cxuint j = 0; j < ccount; j++)
2975        {
2976            rvuAdded |= 1U<<ldeps[pos];
2977            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2978            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2979            {
2980                AsmSingleVReg svreg = {rvu.regVar, k};
2981                auto sit = ssaIdIdxMap.find(svreg);
2982                if (regType==UINT_MAX)
2983                    regType = getRegType(regTypesNum, regRanges, svreg);
2984                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2985                const std::vector<size_t>& ssaIdIndices =
2986                            vregIndexMap.find(svreg)->second;
2987                // push variable index
2988                vidxes.push_back(ssaIdIndices[sit->second]);
2989            }
2990        }
2991        ldepsOut[regType][vidxes[0]].align = align;
2992        for (size_t k = 1; k < vidxes.size(); k++)
2993        {
2994            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2995            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2996        }
2997    }
2998    // add single arg linear dependencies
2999    for (cxuint i = 0; i < rvusNum; i++)
3000        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
3001        {
3002            const AsmRegVarUsage& rvu = rvus[i];
3003            std::vector<size_t> vidxes;
3004            cxuint regType = UINT_MAX;
3005            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
3006            {
3007                AsmSingleVReg svreg = {rvu.regVar, k};
3008                auto sit = ssaIdIdxMap.find(svreg);
3009                if (regType==UINT_MAX)
3010                    regType = getRegType(regTypesNum, regRanges, svreg);
3011                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3012                const std::vector<size_t>& ssaIdIndices =
3013                            vregIndexMap.find(svreg)->second;
3014                // push variable index
3015                vidxes.push_back(ssaIdIndices[sit->second]);
3016            }
3017            for (size_t j = 1; j < vidxes.size(); j++)
3018            {
3019                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
3020                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
3021            }
3022        }
3023       
3024    /* equalTo dependencies */
3025    count = edeps[0];
3026    pos = 1;
3027    for (cxuint i = 0; i < count; i++)
3028    {
3029        cxuint ccount = edeps[pos++];
3030        std::vector<size_t> vidxes;
3031        cxuint regType = UINT_MAX;
3032        for (cxuint j = 0; j < ccount; j++)
3033        {
3034            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
3035            // only one register should be set for equalTo depencencies
3036            // other registers in range will be resolved by linear dependencies
3037            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
3038            auto sit = ssaIdIdxMap.find(svreg);
3039            if (regType==UINT_MAX)
3040                regType = getRegType(regTypesNum, regRanges, svreg);
3041            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3042            const std::vector<size_t>& ssaIdIndices =
3043                        vregIndexMap.find(svreg)->second;
3044            // push variable index
3045            vidxes.push_back(ssaIdIndices[sit->second]);
3046        }
3047        for (size_t j = 1; j < vidxes.size(); j++)
3048        {
3049            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
3050            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
3051        }
3052    }
3053}
3054
3055typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
3056
3057struct EqualStackEntry
3058{
3059    EqualToDepMapCIter etoDepIt;
3060    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
3061};
3062
3063void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
3064{
3065    // construct var index maps
3066    size_t graphVregsCounts[MAX_REGTYPES_NUM];
3067    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
3068    cxuint regRanges[MAX_REGTYPES_NUM*2];
3069    size_t regTypesNum;
3070    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
3071   
3072    for (const CodeBlock& cblock: codeBlocks)
3073        for (const auto& entry: cblock.ssaInfoMap)
3074        {
3075            const SSAInfo& sinfo = entry.second;
3076            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
3077            VarIndexMap& vregIndices = vregIndexMaps[regType];
3078            size_t& graphVregsCount = graphVregsCounts[regType];
3079            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
3080            size_t ssaIdCount = 0;
3081            if (sinfo.readBeforeWrite)
3082                ssaIdCount = sinfo.ssaIdBefore+1;
3083            if (sinfo.ssaIdChange!=0)
3084            {
3085                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
3086                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
3087            }
3088            if (ssaIdIndices.size() < ssaIdCount)
3089                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
3090           
3091            if (sinfo.readBeforeWrite)
3092                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
3093            if (sinfo.ssaIdChange!=0)
3094            {
3095                // fill up ssaIdIndices (with graph Ids)
3096                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
3097                for (size_t ssaId = sinfo.ssaId+1;
3098                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
3099                    ssaIdIndices[ssaId] = graphVregsCount++;
3100                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
3101            }
3102        }
3103   
3104    // construct vreg liveness
3105    std::deque<FlowStackEntry3> flowStack;
3106    std::vector<bool> visited(codeBlocks.size(), false);
3107    // hold last vreg ssaId and position
3108    LastVRegMap lastVRegMap;
3109    // hold start live time position for every code block
3110    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
3111    std::unordered_set<size_t> blockInWay;
3112   
3113    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
3114   
3115    for (size_t i = 0; i < regTypesNum; i++)
3116        livenesses[i].resize(graphVregsCounts[i]);
3117   
3118    size_t curLiveTime = 0;
3119   
3120    while (!flowStack.empty())
3121    {
3122        FlowStackEntry3& entry = flowStack.back();
3123        CodeBlock& cblock = codeBlocks[entry.blockIndex];
3124       
3125        if (entry.nextIndex == 0)
3126        {
3127            // process current block
3128            if (!blockInWay.insert(entry.blockIndex).second)
3129            {
3130                // if loop
3131                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
3132                        livenesses, vregIndexMaps, regTypesNum, regRanges);
3133                flowStack.pop_back();
3134                continue;
3135            }
3136           
3137            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
3138            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
3139                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
3140           
3141            for (const auto& sentry: cblock.ssaInfoMap)
3142            {
3143                const SSAInfo& sinfo = sentry.second;
3144                // update
3145                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
3146                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
3147                FlowStackCIter flit = flowStack.end();
3148                --flit; // to last position
3149                auto res = lastVRegMap.insert({ sentry.first, 
3150                            { lastSSAId, { flit } } });
3151                if (!res.second) // if not first seen, just update
3152                {
3153                    // update last
3154                    res.first->second.ssaId = lastSSAId;
3155                    res.first->second.blockChain.push_back(flit);
3156                }
3157            }
3158           
3159            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
3160            if (!visited[entry.blockIndex])
3161            {
3162                visited[entry.blockIndex] = true;
3163                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
3164                AsmRegVarUsage instrRVUs[8];
3165                cxuint instrRVUsCount = 0;
3166               
3167                size_t oldOffset = cblock.usagePos.readOffset;
3168                std::vector<AsmSingleVReg> readSVRegs;
3169                std::vector<AsmSingleVReg> writtenSVRegs;
3170               
3171                usageHandler.setReadPos(cblock.usagePos);
3172                // register in liveness
3173                while (true)
3174                {
3175                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
3176                    size_t liveTimeNext = curBlockLiveEnd;
3177                    if (usageHandler.hasNext())
3178                    {
3179                        rvu = usageHandler.nextUsage();
3180                        if (rvu.offset >= cblock.end)
3181                            break;
3182                        if (!rvu.useRegMode)
3183                            instrRVUs[instrRVUsCount++] = rvu;
3184                        liveTimeNext = std::min(rvu.offset, cblock.end) -
3185                                cblock.start + curLiveTime;
3186                    }
3187                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
3188                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
3189                    {
3190                        // apply to liveness
3191                        for (AsmSingleVReg svreg: readSVRegs)
3192                        {
3193                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
3194                                    cblock.ssaInfoMap.find(svreg)->second,
3195                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
3196                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
3197                                lv.newRegion(curLiveTime); // begin region from this block
3198                            lv.expand(liveTime);
3199                        }
3200                        for (AsmSingleVReg svreg: writtenSVRegs)
3201                        {
3202                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
3203                            ssaIdIdx++;
3204                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
3205                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
3206                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
3207                            if (liveTimeNext != curBlockLiveEnd)
3208                                // because live after this instr
3209                                lv.newRegion(liveTimeNext);
3210                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
3211                        }
3212                        // get linear deps and equal to
3213                        cxbyte lDeps[16];
3214                        cxbyte eDeps[16];
3215                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
3216                                        lDeps, eDeps);
3217                       
3218                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
3219                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
3220                                regTypesNum, regRanges);
3221                       
3222                        readSVRegs.clear();
3223                        writtenSVRegs.clear();
3224                        if (!usageHandler.hasNext())
3225                            break; // end
3226                        oldOffset = rvu.offset;
3227                        instrRVUsCount = 0;
3228                    }
3229                    if (rvu.offset >= cblock.end)
3230                        break;
3231                   
3232                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
3233                    {
3234                        // per register/singlvreg
3235                        AsmSingleVReg svreg{ rvu.regVar, rindex };
3236                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
3237                            writtenSVRegs.push_back(svreg);
3238                        else // read or treat as reading // expand previous region
3239                            readSVRegs.push_back(svreg);
3240                    }
3241                }
3242                curLiveTime += cblock.end-cblock.start;
3243            }
3244            else
3245            {
3246                // back, already visited
3247                flowStack.pop_back();
3248                continue;
3249            }
3250        }
3251        if (entry.nextIndex < cblock.nexts.size())
3252        {
3253            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
3254            entry.nextIndex++;
3255        }
3256        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
3257        {
3258            flowStack.push_back({ entry.blockIndex+1, 0 });
3259            entry.nextIndex++;
3260        }
3261        else // back
3262        {
3263            // revert lastSSAIdMap
3264            blockInWay.erase(entry.blockIndex);
3265            flowStack.pop_back();
3266            if (!flowStack.empty())
3267            {
3268                for (const auto& sentry: cblock.ssaInfoMap)
3269                {
3270                    auto lvrit = lastVRegMap.find(sentry.first);
3271                    if (lvrit != lastVRegMap.end())
3272                    {
3273                        VRegLastPos& lastPos = lvrit->second;
3274                        lastPos.ssaId = sentry.second.ssaIdBefore;
3275                        lastPos.blockChain.pop_back();
3276                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
3277                            lastVRegMap.erase(lvrit);
3278                    }
3279                }
3280            }
3281        }
3282    }
3283   
3284    /// construct liveBlockMaps
3285    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
3286    for (size_t regType = 0; regType < regTypesNum; regType++)
3287    {
3288        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3289        std::vector<Liveness>& liveness = livenesses[regType];
3290        for (size_t li = 0; li < liveness.size(); li++)
3291        {
3292            Liveness& lv = liveness[li];
3293            for (const std::pair<size_t, size_t>& blk: lv.l)
3294                if (blk.first != blk.second)
3295                    liveBlockMap.insert({ blk.first, blk.second, li });
3296            lv.clear();
3297        }
3298        liveness.clear();
3299    }
3300   
3301    // create interference graphs
3302    for (size_t regType = 0; regType < regTypesNum; regType++)
3303    {
3304        InterGraph& interGraph = interGraphs[regType];
3305        interGraph.resize(graphVregsCounts[regType]);
3306        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3307       
3308        auto lit = liveBlockMap.begin();
3309        size_t rangeStart = 0;
3310        if (lit != liveBlockMap.end())
3311            rangeStart = lit->start;
3312        while (lit != liveBlockMap.end())
3313        {
3314            const size_t blkStart = lit->start;
3315            const size_t blkEnd = lit->end;
3316            size_t rangeEnd = blkEnd;
3317            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
3318            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
3319            // collect from this range, variable indices
3320            std::set<size_t> varIndices;
3321            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
3322                varIndices.insert(lit2->vidx);
3323            // push to intergraph as full subgGraph
3324            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
3325                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
3326                    if (vit != vit2)
3327                        interGraph[*vit].insert(*vit2);
3328            // go to next live blocks
3329            rangeStart = rangeEnd;
3330            for (; lit != liveBlockMap.end(); ++lit)
3331                if (lit->start != blkStart && lit->end != blkEnd)
3332                    break;
3333            if (lit == liveBlockMap.end())
3334                break; //
3335            rangeStart = std::max(rangeStart, lit->start);
3336        }
3337    }
3338   
3339    /*
3340     * resolve equalSets
3341     */
3342    for (cxuint regType = 0; regType < regTypesNum; regType++)
3343    {
3344        InterGraph& interGraph = interGraphs[regType];
3345        const size_t nodesNum = interGraph.size();
3346        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
3347        std::vector<bool> visited(nodesNum, false);
3348        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3349       
3350        for (size_t v = 0; v < nodesNum;)
3351        {
3352            auto it = etoDepMap.find(v);
3353            if (it == etoDepMap.end())
3354            {
3355                // is not regvar in equalTo dependencies
3356                v++;
3357                continue;
3358            }
3359           
3360            std::stack<EqualStackEntry> etoStack;
3361            etoStack.push(EqualStackEntry{ it, 0 });
3362           
3363            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3364            const size_t equalSetIndex = equalSetList.size();
3365            equalSetList.push_back(std::vector<size_t>());
3366            std::vector<size_t>& equalSet = equalSetList.back();
3367           
3368            // traverse by this
3369            while (!etoStack.empty())
3370            {
3371                EqualStackEntry& entry = etoStack.top();
3372                size_t vidx = entry.etoDepIt->first; // node index, vreg index
3373                const EqualToDep& eToDep = entry.etoDepIt->second;
3374                if (entry.nextIdx == 0)
3375                {
3376                    if (!visited[vidx])
3377                    {
3378                        // push to this equalSet
3379                        equalSetMap.insert({ vidx, equalSetIndex });
3380                        equalSet.push_back(vidx);
3381                    }
3382                    else
3383                    {
3384                        // already visited
3385                        etoStack.pop();
3386                        continue;
3387                    }
3388                }
3389               
3390                if (entry.nextIdx < eToDep.nextVidxes.size())
3391                {
3392                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
3393                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3394                    entry.nextIdx++;
3395                }
3396                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
3397                {
3398                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
3399                                entry.nextIdx - eToDep.nextVidxes.size()]);
3400                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3401                    entry.nextIdx++;
3402                }
3403                else
3404                    etoStack.pop();
3405            }
3406           
3407            // to first already added node (var)
3408            while (v < nodesNum && !visited[v]) v++;
3409        }
3410    }
3411}
3412
3413typedef AsmRegAllocator::InterGraph InterGraph;
3414
3415struct CLRX_INTERNAL SDOLDOCompare
3416{
3417    const InterGraph& interGraph;
3418    const Array<size_t>& sdoCounts;
3419   
3420    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
3421        : interGraph(_interGraph), sdoCounts(_sdoCounts)
3422    { }
3423   
3424    bool operator()(size_t a, size_t b) const
3425    {
3426        if (sdoCounts[a] > sdoCounts[b])
3427            return true;
3428        return interGraph[a].size() > interGraph[b].size();
3429    }
3430};
3431
3432/* algorithm to allocate regranges:
3433 * from smallest regranges to greatest regranges:
3434 *   choosing free register: from smallest free regranges
3435 *      to greatest regranges:
3436 *         in this same regrange:
3437 *               try to find free regs in regranges
3438 *               try to link free ends of two distinct regranges
3439 */
3440
3441void AsmRegAllocator::colorInterferenceGraph()
3442{
3443    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
3444                    assembler.deviceType);
3445   
3446    for (size_t regType = 0; regType < regTypesNum; regType++)
3447    {
3448        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
3449        InterGraph& interGraph = interGraphs[regType];
3450        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3451        Array<cxuint>& gcMap = graphColorMaps[regType];
3452        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3453        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3454       
3455        const size_t nodesNum = interGraph.size();
3456        gcMap.resize(nodesNum);
3457        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
3458        Array<size_t> sdoCounts(nodesNum);
3459        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
3460       
3461        SDOLDOCompare compare(interGraph, sdoCounts);
3462        std::set<size_t, SDOLDOCompare> nodeSet(compare);
3463        for (size_t i = 0; i < nodesNum; i++)
3464            nodeSet.insert(i);
3465       
3466        cxuint colorsNum = 0;
3467        // firstly, allocate real registers
3468        for (const auto& entry: vregIndexMap)
3469            if (entry.first.regVar == nullptr)
3470                gcMap[entry.second[0]] = colorsNum++;
3471       
3472        for (size_t colored = 0; colored < nodesNum; colored++)
3473        {
3474            size_t node = *nodeSet.begin();
3475            if (gcMap[node] != UINT_MAX)
3476                continue; // already colored
3477            size_t color = 0;
3478            std::vector<size_t> equalNodes;
3479            equalNodes.push_back(node); // only one node, if equalSet not found
3480            auto equalSetMapIt = equalSetMap.find(node);
3481            if (equalSetMapIt != equalSetMap.end())
3482                // found, get equal set from equalSetList
3483                equalNodes = equalSetList[equalSetMapIt->second];
3484           
3485            for (color = 0; color <= colorsNum; color++)
3486            {
3487                // find first usable color
3488                bool thisSame = false;
3489                for (size_t nb: interGraph[node])
3490                    if (gcMap[nb] == color)
3491                    {
3492                        thisSame = true;
3493                        break;
3494                    }
3495                if (!thisSame)
3496                    break;
3497            }
3498            if (color==colorsNum) // add new color if needed
3499            {
3500                if (colorsNum >= maxColorsNum)
3501                    throw AsmException("Too many register is needed");
3502                colorsNum++;
3503            }
3504           
3505            for (size_t nextNode: equalNodes)
3506                gcMap[nextNode] = color;
3507            // update SDO for node
3508            bool colorExists = false;
3509            for (size_t node: equalNodes)
3510            {
3511                for (size_t nb: interGraph[node])
3512                    if (gcMap[nb] == color)
3513                    {
3514                        colorExists = true;
3515                        break;
3516                    }
3517                if (!colorExists)
3518                    sdoCounts[node]++;
3519            }
3520            // update SDO for neighbors
3521            for (size_t node: equalNodes)
3522                for (size_t nb: interGraph[node])
3523                {
3524                    colorExists = false;
3525                    for (size_t nb2: interGraph[nb])
3526                        if (gcMap[nb2] == color)
3527                        {
3528                            colorExists = true;
3529                            break;
3530                        }
3531                    if (!colorExists)
3532                    {
3533                        if (gcMap[nb] == UINT_MAX)
3534                            nodeSet.erase(nb);  // before update we erase from nodeSet
3535                        sdoCounts[nb]++;
3536                        if (gcMap[nb] == UINT_MAX)
3537                            nodeSet.insert(nb); // after update, insert again
3538                    }
3539                }
3540           
3541            for (size_t nextNode: equalNodes)
3542                gcMap[nextNode] = color;
3543        }
3544    }
3545}
3546
3547void AsmRegAllocator::allocateRegisters(cxuint sectionId)
3548{
3549    // before any operation, clear all
3550    codeBlocks.clear();
3551    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
3552    {
3553        vregIndexMaps[i].clear();
3554        interGraphs[i].clear();
3555        linearDepMaps[i].clear();
3556        equalToDepMaps[i].clear();
3557        graphColorMaps[i].clear();
3558        equalSetMaps[i].clear();
3559        equalSetLists[i].clear();
3560    }
3561    ssaReplacesMap.clear();
3562    cxuint maxRegs[MAX_REGTYPES_NUM];
3563    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
3564   
3565    // set up
3566    const AsmSection& section = assembler.sections[sectionId];
3567    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
3568    createSSAData(*section.usageHandler);
3569    applySSAReplaces();
3570    createInterferenceGraph(*section.usageHandler);
3571    colorInterferenceGraph();
3572}
Note: See TracBrowser for help on using the repository browser.