source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3948

Last change on this file since 3948 was 3948, checked in by matszpk, 15 months ago

CLRadeonExtender: AsmRegAlloc?: Yet another update 4.

File size: 136.7 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
560// map of last SSAId for routine, key - varid, value - last SSA ids
561class CLRX_INTERNAL LastSSAIdMap: public
562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
563{
564public:
565    LastSSAIdMap()
566    { }
567   
568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
583    size_t weight() const
584    { return size(); }
585};
586
587typedef LastSSAIdMap RBWSSAIdMap;
588typedef std::unordered_map<size_t, VectorSet<size_t> > SubrLoopsMap;
589
590struct CLRX_INTERNAL RetSSAEntry
591{
592    std::vector<size_t> routines;
593    VectorSet<size_t> ssaIds;
594    size_t prevSSAId; // for curSSAId
595};
596
597typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
598
599struct CLRX_INTERNAL LoopSSAIdMap
600{
601    LastSSAIdMap ssaIdMap;
602    bool passed;
603};
604
605struct CLRX_INTERNAL RoutineData
606{
607    // rbwSSAIdMap - read before write SSAId's map
608    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
609    LastSSAIdMap curSSAIdMap;
610    LastSSAIdMap lastSSAIdMap;
611    // key - loop block, value - last ssaId map for loop end
612    std::unordered_map<size_t, LoopSSAIdMap> loopEnds;
613    bool notFirstReturn;
614    size_t weight_;
615   
616    RoutineData() : notFirstReturn(false), weight_(0)
617    { }
618   
619    void calculateWeight()
620    {
621        weight_ = rbwSSAIdMap.size() + lastSSAIdMap.weight();
622        for (const auto& entry: loopEnds)
623            weight_ += entry.second.ssaIdMap.weight();
624    }
625   
626    size_t weight() const
627    { return weight_; }
628};
629
630struct CLRX_INTERNAL FlowStackEntry
631{
632    size_t blockIndex;
633    size_t nextIndex;
634    bool isCall;
635    RetSSAIdMap prevRetSSAIdSets;
636};
637
638struct CLRX_INTERNAL FlowStackEntry2
639{
640    size_t blockIndex;
641    size_t nextIndex;
642};
643
644
645struct CLRX_INTERNAL CallStackEntry
646{
647    size_t callBlock; // index
648    size_t callNextIndex; // index of call next
649    size_t routineBlock;    // routine block
650};
651
652class ResSecondPointsToCache: public std::vector<bool>
653{
654public:
655    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
656    { }
657   
658    void increase(size_t i)
659    {
660        if ((*this)[i<<1])
661            (*this)[(i<<1)+1] = true;
662        else
663            (*this)[i<<1] = true;
664    }
665   
666    cxuint count(size_t i) const
667    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
668};
669
670typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
671typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
672
673static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
674              size_t origId, size_t destId)
675{
676    auto res = rmap.insert({ vreg, {} });
677    res.first->second.insertValue({ origId, destId });
678}
679
680/* caching concepts:
681 * resfirstPointsCache - cache of the ways that goes to conflict which should be resolved
682 *               from first code block of the code. The entries holds a stackVarMap state
683 *               to first point the conflict (first visited already code block)
684 * resSecondPointsCache - cache of the tree traversing, starting at the first conflict
685 *               point (first visited code block). Entries holds a
686 *               regvars SSAId read before write (that should resolved)
687 */
688
689static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
690            const LastSSAIdMap* stackVarMap,
691            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
692            FlowStackEntry2& entry, const SSAEntry& sentry,
693            RBWSSAIdMap* cacheSecPoints)
694{
695    const SSAInfo& sinfo = sentry.second;
696    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
697   
698    if (res.second && sinfo.readBeforeWrite)
699    {
700        if (cacheSecPoints != nullptr)
701        {
702            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
703            if (!res.second)
704                res.first->second.insertValue(sinfo.ssaIdBefore);
705        }
706       
707        if (stackVarMap != nullptr)
708        {
709           
710            // resolve conflict for this variable ssaId>.
711            // only if in previous block previous SSAID is
712            // read before all writes
713            auto it = stackVarMap->find(sentry.first);
714           
715            if (it != stackVarMap->end())
716            {
717                // found, resolve by set ssaIdLast
718                for (size_t ssaId: it->second)
719                {
720                    if (ssaId > sinfo.ssaIdBefore)
721                    {
722                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
723                            sentry.first.index  << ": " <<
724                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
725                        insertReplace(*replacesMap, sentry.first, ssaId,
726                                    sinfo.ssaIdBefore);
727                    }
728                    else if (ssaId < sinfo.ssaIdBefore)
729                    {
730                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
731                            sentry.first.index  << ": " <<
732                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
733                        insertReplace(*replacesMap, sentry.first,
734                                        sinfo.ssaIdBefore, ssaId);
735                    }
736                    /*else
737                        std::cout << "  noinsertreplace: " <<
738                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
739                }
740            }
741        }
742    }
743}
744
745typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
746
747// use res second point cache entry to resolve conflict with SSAIds.
748// it emits SSA replaces from these conflicts
749static void useResSecPointCache(SSAReplacesMap* replacesMap,
750        const LastSSAIdMap* stackVarMap,
751        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
752        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
753        RBWSSAIdMap* destCacheSecPoints)
754{
755    std::cout << "use resSecPointCache for " << nextBlock <<
756            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
757    for (const auto& sentry: *resSecondPoints)
758    {
759        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
760        if (destCacheSecPoints != nullptr && !alreadyRead)
761        {
762            auto res = destCacheSecPoints->insert(sentry);
763            if (!res.second)
764                for (size_t srcSSAId: sentry.second)
765                    res.first->second.insertValue(srcSSAId);
766        }
767       
768        if (stackVarMap != nullptr)
769        {
770            auto it = stackVarMap->find(sentry.first);
771           
772            if (it != stackVarMap->end() && !alreadyRead)
773            {
774                // found, resolve by set ssaIdLast
775                for (size_t ssaId: it->second)
776                {
777                    for (size_t secSSAId: sentry.second)
778                    {
779                        if (ssaId > secSSAId)
780                        {
781                            std::cout << "  insertreplace: " <<
782                                sentry.first.regVar << ":" <<
783                                sentry.first.index  << ": " <<
784                                ssaId << ", " << secSSAId << std::endl;
785                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
786                        }
787                        else if (ssaId < secSSAId)
788                        {
789                            std::cout << "  insertreplace2: " <<
790                                sentry.first.regVar << ":" <<
791                                sentry.first.index  << ": " <<
792                                ssaId << ", " << secSSAId << std::endl;
793                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
794                        }
795                        /*else
796                            std::cout << "  noinsertreplace: " <<
797                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
798                    }
799                }
800            }
801        }
802    }
803}
804
805// add new res second cache entry with readBeforeWrite for all encountered regvars
806static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
807                const std::vector<CodeBlock>& codeBlocks,
808                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
809                size_t nextBlock)
810{
811    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
812    //std::stack<CallStackEntry> callStack = prevCallStack;
813    // traverse by graph from next block
814    std::deque<FlowStackEntry2> flowStack;
815    flowStack.push_back({ nextBlock, 0 });
816    std::vector<bool> visited(codeBlocks.size(), false);
817   
818    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
819   
820    RBWSSAIdMap cacheSecPoints;
821   
822    while (!flowStack.empty())
823    {
824        FlowStackEntry2& entry = flowStack.back();
825        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
826       
827        if (entry.nextIndex == 0)
828        {
829            // process current block
830            if (!visited[entry.blockIndex])
831            {
832                visited[entry.blockIndex] = true;
833                std::cout << "  resolv: " << entry.blockIndex << std::endl;
834               
835                const RBWSSAIdMap* resSecondPoints =
836                            resSecondPointsCache.use(entry.blockIndex);
837                if (resSecondPoints == nullptr)
838                    for (auto& sentry: cblock.ssaInfoMap)
839                        handleSSAEntryWhileResolving(nullptr, nullptr,
840                                alreadyReadMap, entry, sentry,
841                                &cacheSecPoints);
842                else // to use cache
843                {
844                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
845                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
846                    flowStack.pop_back();
847                    continue;
848                }
849            }
850            else
851            {
852                // back, already visited
853                std::cout << "resolv already: " << entry.blockIndex << std::endl;
854                flowStack.pop_back();
855                continue;
856            }
857        }
858       
859        if (entry.nextIndex < cblock.nexts.size())
860        {
861            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
862            entry.nextIndex++;
863        }
864        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
865                // if have any call then go to next block
866                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
867                 !cblock.haveReturn && !cblock.haveEnd)
868        {
869            // add toResolveMap ssaIds inside called routines
870            for (const auto& next: cblock.nexts)
871                if (next.isCall)
872                {
873                    const RoutineData& rdata = routineMap.find(next.block)->second;
874                    for (const auto& v: rdata.rbwSSAIdMap)
875                        alreadyReadMap.insert({v.first, entry.blockIndex });
876                    for (const auto& v: rdata.lastSSAIdMap)
877                        alreadyReadMap.insert({v.first, entry.blockIndex });
878                }
879           
880            flowStack.push_back({ entry.blockIndex+1, 0 });
881            entry.nextIndex++;
882        }
883        else // back
884        {
885            // remove old to resolve in leaved way to allow collecting next ssaId
886            // before write (can be different due to earlier visit)
887            for (const auto& next: cblock.nexts)
888                if (next.isCall)
889                {
890                    const RoutineData& rdata = routineMap.find(next.block)->second;
891                    for (const auto& v: rdata.rbwSSAIdMap)
892                    {
893                        auto it = alreadyReadMap.find(v.first);
894                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
895                            alreadyReadMap.erase(it);
896                    }
897                    for (const auto& v: rdata.lastSSAIdMap)
898                    {
899                        auto it = alreadyReadMap.find(v.first);
900                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
901                            alreadyReadMap.erase(it);
902                    }
903                }
904           
905            for (const auto& sentry: cblock.ssaInfoMap)
906            {
907                auto it = alreadyReadMap.find(sentry.first);
908                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
909                    // remove old to resolve in leaved way to allow collecting next ssaId
910                    // before write (can be different due to earlier visit)
911                    alreadyReadMap.erase(it);
912            }
913            std::cout << "  popresolv" << std::endl;
914            flowStack.pop_back();
915        }
916    }
917   
918    resSecondPointsCache.put(nextBlock, cacheSecPoints);
919}
920
921// apply calls (changes from these calls) from code blocks to stack var map
922static void applyCallToStackVarMap(const CodeBlock& cblock,
923        const std::unordered_map<size_t, RoutineData>& routineMap,
924        LastSSAIdMap& stackVarMap, size_t blockIndex, size_t nextIndex)
925{
926    for (const NextBlock& next: cblock.nexts)
927        if (next.isCall)
928        {
929            const LastSSAIdMap& regVarMap =
930                    routineMap.find(next.block)->second.lastSSAIdMap;
931            for (const auto& sentry: regVarMap)
932                stackVarMap[sentry.first].clear(); // clearing
933        }
934   
935    for (const NextBlock& next: cblock.nexts)
936        if (next.isCall)
937        {
938            std::cout << "  applycall: " << blockIndex << ": " <<
939                    nextIndex << ": " << next.block << std::endl;
940            const LastSSAIdMap& regVarMap =
941                    routineMap.find(next.block)->second.lastSSAIdMap;
942            for (const auto& sentry: regVarMap)
943                for (size_t s: sentry.second)
944                    stackVarMap.insertSSAId(sentry.first, s);
945        }
946}
947
948
949// main routine to resilve SSA conflicts in code
950// it emits SSA replaces from these conflicts
951static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
952        const std::unordered_map<size_t, RoutineData>& routineMap,
953        const std::vector<CodeBlock>& codeBlocks,
954        const PrevWaysIndexMap& prevWaysIndexMap,
955        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
956        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
957        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
958        SSAReplacesMap& replacesMap)
959{
960    size_t nextBlock = prevFlowStack.back().blockIndex;
961    auto pfEnd = prevFlowStack.end();
962    --pfEnd;
963    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
964    LastSSAIdMap stackVarMap;
965   
966    size_t pfStartIndex = 0;
967    {
968        auto pfPrev = pfEnd;
969        --pfPrev;
970        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
971        if (it != prevWaysIndexMap.end())
972        {
973            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
974            if (cached!=nullptr)
975            {
976                std::cout << "use pfcached: " << it->second.first << ", " <<
977                        it->second.second << std::endl;
978                stackVarMap = *cached;
979                pfStartIndex = it->second.second+1;
980               
981                // apply missing calls at end of the cached
982                const CodeBlock& cblock = codeBlocks[it->second.first];
983               
984                const FlowStackEntry2& entry = *(prevFlowStack.begin()+pfStartIndex-1);
985                if (entry.nextIndex > cblock.nexts.size())
986                    applyCallToStackVarMap(cblock, routineMap, stackVarMap, -1, -1);
987            }
988        }
989    }
990   
991    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
992    {
993        const FlowStackEntry2& entry = *pfit;
994        std::cout << "  apply: " << entry.blockIndex << std::endl;
995        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
996        for (const auto& sentry: cblock.ssaInfoMap)
997        {
998            const SSAInfo& sinfo = sentry.second;
999            if (sinfo.ssaIdChange != 0)
1000                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
1001        }
1002        if (entry.nextIndex > cblock.nexts.size())
1003            applyCallToStackVarMap(cblock, routineMap, stackVarMap,
1004                        entry.blockIndex, entry.nextIndex);
1005       
1006        // put to first point cache
1007        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
1008        {
1009            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
1010            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
1011        }
1012    }
1013   
1014    RBWSSAIdMap cacheSecPoints;
1015    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
1016                cblocksToCache.count(nextBlock)>=2;
1017   
1018    //std::stack<CallStackEntry> callStack = prevCallStack;
1019    // traverse by graph from next block
1020    std::deque<FlowStackEntry2> flowStack;
1021    flowStack.push_back({ nextBlock, 0 });
1022    std::vector<bool> visited(codeBlocks.size(), false);
1023   
1024    // already read in current path
1025    // key - vreg, value - source block where vreg of conflict found
1026    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
1027   
1028    while (!flowStack.empty())
1029    {
1030        FlowStackEntry2& entry = flowStack.back();
1031        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1032       
1033        if (entry.nextIndex == 0)
1034        {
1035            // process current block
1036            if (!visited[entry.blockIndex])
1037            {
1038                visited[entry.blockIndex] = true;
1039                std::cout << "  resolv: " << entry.blockIndex << std::endl;
1040               
1041                const RBWSSAIdMap* resSecondPoints =
1042                        resSecondPointsCache.use(entry.blockIndex);
1043                if (resSecondPoints == nullptr)
1044                    for (auto& sentry: cblock.ssaInfoMap)
1045                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
1046                                alreadyReadMap, entry, sentry,
1047                                toCache ? &cacheSecPoints : nullptr);
1048                else // to use cache
1049                {
1050                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
1051                            resSecondPoints, entry.blockIndex,
1052                            toCache ? &cacheSecPoints : nullptr);
1053                    flowStack.pop_back();
1054                    continue;
1055                }
1056            }
1057            else
1058            {
1059                cblocksToCache.increase(entry.blockIndex);
1060                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1061                            cblocksToCache.count(entry.blockIndex) << std::endl;
1062                // back, already visited
1063                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1064                flowStack.pop_back();
1065                continue;
1066            }
1067        }
1068       
1069        if (entry.nextIndex < cblock.nexts.size())
1070        {
1071            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1072            entry.nextIndex++;
1073        }
1074        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1075                // if have any call then go to next block
1076                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1077                 !cblock.haveReturn && !cblock.haveEnd)
1078        {
1079            // add toResolveMap ssaIds inside called routines
1080            for (const auto& next: cblock.nexts)
1081                if (next.isCall)
1082                {
1083                    const RoutineData& rdata = routineMap.find(next.block)->second;
1084                    for (const auto& v: rdata.rbwSSAIdMap)
1085                        alreadyReadMap.insert({v.first, entry.blockIndex });
1086                    for (const auto& v: rdata.lastSSAIdMap)
1087                        alreadyReadMap.insert({v.first, entry.blockIndex });
1088                }
1089           
1090            flowStack.push_back({ entry.blockIndex+1, 0 });
1091            entry.nextIndex++;
1092        }
1093        else // back
1094        {
1095            // remove old to resolve in leaved way to allow collecting next ssaId
1096            // before write (can be different due to earlier visit)
1097            for (const auto& next: cblock.nexts)
1098                if (next.isCall)
1099                {
1100                    const RoutineData& rdata = routineMap.find(next.block)->second;
1101                    for (const auto& v: rdata.rbwSSAIdMap)
1102                    {
1103                        auto it = alreadyReadMap.find(v.first);
1104                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1105                            alreadyReadMap.erase(it);
1106                    }
1107                    for (const auto& v: rdata.lastSSAIdMap)
1108                    {
1109                        auto it = alreadyReadMap.find(v.first);
1110                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1111                            alreadyReadMap.erase(it);
1112                    }
1113                }
1114           
1115            for (const auto& sentry: cblock.ssaInfoMap)
1116            {
1117                auto it = alreadyReadMap.find(sentry.first);
1118                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1119                    // remove old to resolve in leaved way to allow collecting next ssaId
1120                    // before write (can be different due to earlier visit)
1121                    alreadyReadMap.erase(it);
1122            }
1123            std::cout << "  popresolv" << std::endl;
1124           
1125            if (cblocksToCache.count(entry.blockIndex)==2 &&
1126                !resSecondPointsCache.hasKey(entry.blockIndex))
1127                // add to cache
1128                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1129                            entry.blockIndex);
1130           
1131            flowStack.pop_back();
1132        }
1133    }
1134   
1135    if (toCache)
1136        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1137}
1138
1139// join ret SSAId Map - src - last SSAIdMap from called routine
1140static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1141                size_t routineBlock)
1142{
1143    for (const auto& entry: src)
1144    {
1145        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1146                cxuint(entry.first.index) << ":";
1147        for (size_t v: entry.second)
1148            std::cout << " " << v;
1149        std::cout << std::endl;
1150        // insert if not inserted
1151        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1152        if (res.second)
1153            continue; // added new
1154        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1155        res.first->second.routines.push_back(routineBlock);
1156        // add new ways
1157        for (size_t ssaId: entry.second)
1158            destEntry.insertValue(ssaId);
1159        std::cout << "    :";
1160        for (size_t v: destEntry)
1161            std::cout << " " << v;
1162        std::cout << std::endl;
1163    }
1164}
1165
1166// simple join last ssaid map
1167static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1168{
1169    for (const auto& entry: src)
1170    {
1171        std::cout << "  entry: " << entry.first.regVar << ":" <<
1172                cxuint(entry.first.index) << ":";
1173        for (size_t v: entry.second)
1174            std::cout << " " << v;
1175        std::cout << std::endl;
1176        auto res = dest.insert(entry); // find
1177        if (res.second)
1178            continue; // added new
1179        VectorSet<size_t>& destEntry = res.first->second;
1180        // add new ways
1181        for (size_t ssaId: entry.second)
1182            destEntry.insertValue(ssaId);
1183        std::cout << "    :";
1184        for (size_t v: destEntry)
1185            std::cout << " " << v;
1186        std::cout << std::endl;
1187    }
1188}
1189
1190// join last SSAIdMap of the routine including later routine call
1191// dest - dest last SSAId map, src - source lastSSAIdMap
1192// laterRdatas - data of subroutine/routine exeuted after src lastSSAIdMap state
1193static void joinLastSSAIdMapInt(LastSSAIdMap& dest, const LastSSAIdMap& src,
1194                    const LastSSAIdMap& laterRdataCurSSAIdMap,
1195                    const LastSSAIdMap& laterRdataLastSSAIdMap, bool loop)
1196{
1197    for (const auto& entry: src)
1198    {
1199        auto lsit = laterRdataLastSSAIdMap.find(entry.first);
1200        if (lsit != laterRdataLastSSAIdMap.end())
1201        {
1202            auto csit = laterRdataCurSSAIdMap.find(entry.first);
1203            if (csit != laterRdataCurSSAIdMap.end() && !csit->second.empty())
1204            {
1205                // if found in last ssa ID map,
1206                // but has first value (some way do not change SSAId)
1207                // then pass to add new ssaIds before this point
1208                if (!lsit->second.hasValue(csit->second[0]))
1209                    continue; // otherwise, skip
1210            }
1211        }
1212        std::cout << "  entry: " << entry.first.regVar << ":" <<
1213                cxuint(entry.first.index) << ":";
1214        for (size_t v: entry.second)
1215            std::cout << " " << v;
1216        std::cout << std::endl;
1217        auto res = dest.insert(entry); // find
1218        if (res.second)
1219            continue; // added new
1220        VectorSet<size_t>& destEntry = res.first->second;
1221        // add new ways
1222        for (size_t ssaId: entry.second)
1223            destEntry.insertValue(ssaId);
1224        std::cout << "    :";
1225        for (size_t v: destEntry)
1226            std::cout << " " << v;
1227        std::cout << std::endl;
1228    }
1229    if (!loop) // do not if loop
1230        joinLastSSAIdMap(dest, laterRdataLastSSAIdMap);
1231}
1232
1233static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1234                    const RoutineData& laterRdata, bool loop = false)
1235{
1236    joinLastSSAIdMapInt(dest, src, laterRdata.curSSAIdMap, laterRdata.lastSSAIdMap, loop);
1237}
1238
1239
1240// join routine data from child call with data from parent routine
1241// (just join child call from parent)
1242static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1243{
1244    // insert readBeforeWrite only if doesnt exists in destination
1245    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1246   
1247    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1248   
1249    for (const auto& entry: src.lastSSAIdMap)
1250    {
1251        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1252                cxuint(entry.first.index) << ":";
1253        for (size_t v: entry.second)
1254            std::cout << " " << v;
1255        std::cout << std::endl;
1256        auto res = dest.curSSAIdMap.insert(entry); // find
1257        VectorSet<size_t>& destEntry = res.first->second;
1258        if (!res.second)
1259        {
1260            // add new ways
1261            for (size_t ssaId: entry.second)
1262                destEntry.insertValue(ssaId);
1263        }
1264        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1265        if (rbwit != src.rbwSSAIdMap.end() &&
1266            // remove only if not in src lastSSAIdMap
1267            std::find(entry.second.begin(), entry.second.end(),
1268                      rbwit->second) == entry.second.end())
1269            destEntry.eraseValue(rbwit->second);
1270        std::cout << "    :";
1271        for (size_t v: destEntry)
1272            std::cout << " " << v;
1273        std::cout << std::endl;
1274    }
1275}
1276
1277// reduce retSSAIds for calls (for all read before write SSAIds for current code block)
1278static void reduceSSAIdsForCalls(FlowStackEntry& entry,
1279            const std::vector<CodeBlock>& codeBlocks,
1280            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1281            SSAReplacesMap& ssaReplacesMap)
1282{
1283    if (retSSAIdMap.empty())
1284        return;
1285    LastSSAIdMap rbwSSAIdMap;
1286    std::unordered_set<AsmSingleVReg> reduced;
1287    std::unordered_set<AsmSingleVReg> changed;
1288    const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1289    // collect rbw SSAIds
1290    for (const NextBlock next: cblock.nexts)
1291        if (next.isCall)
1292        {
1293            auto it = routineMap.find(next.block); // must find
1294            for (const auto& rentry: it->second.rbwSSAIdMap)
1295                rbwSSAIdMap.insertSSAId(rentry.first,rentry.second);
1296           
1297        }
1298    for (const NextBlock next: cblock.nexts)
1299        if (next.isCall)
1300        {
1301            auto it = routineMap.find(next.block); // must find
1302            // add changed
1303            for (const auto& lentry: it->second.lastSSAIdMap)
1304                if (rbwSSAIdMap.find(lentry.first) == rbwSSAIdMap.end())
1305                    changed.insert(lentry.first);
1306        }
1307   
1308    // reduce SSAIds
1309    for (const auto& rentry: retSSAIdMap)
1310    {
1311        auto ssaIdsIt = rbwSSAIdMap.find(rentry.first);
1312        if (ssaIdsIt != rbwSSAIdMap.end())
1313        {
1314            const VectorSet<size_t>& ssaIds = ssaIdsIt->second;
1315            const VectorSet<size_t>& rssaIds = rentry.second.ssaIds;
1316            Array<size_t> outSSAIds(ssaIds.size() + rssaIds.size());
1317            std::copy(rssaIds.begin(), rssaIds.end(), outSSAIds.begin());
1318            std::copy(ssaIds.begin(), ssaIds.end(), outSSAIds.begin()+rssaIds.size());
1319           
1320            std::sort(outSSAIds.begin(), outSSAIds.end());
1321            outSSAIds.resize(std::unique(outSSAIds.begin(), outSSAIds.end()) -
1322                        outSSAIds.begin());
1323            size_t minSSAId = outSSAIds.front();
1324            if (outSSAIds.size() >= 2)
1325            {
1326                for (auto sit = outSSAIds.begin()+1; sit != outSSAIds.end(); ++sit)
1327                    insertReplace(ssaReplacesMap, rentry.first, *sit, minSSAId);
1328               
1329                std::cout << "calls retssa ssaid: " << rentry.first.regVar << ":" <<
1330                        rentry.first.index << std::endl;
1331            }
1332           
1333            for (size_t rblock: rentry.second.routines)
1334                routineMap.find(rblock)->second.lastSSAIdMap[rentry.first] =
1335                            VectorSet<size_t>({ minSSAId });
1336            reduced.insert(rentry.first);
1337        }
1338    }
1339    for (const AsmSingleVReg& vreg: reduced)
1340        retSSAIdMap.erase(vreg);
1341    reduced.clear();
1342       
1343    for (const AsmSingleVReg& vreg: changed)
1344    {
1345        auto rit = retSSAIdMap.find(vreg);
1346        if (rit != retSSAIdMap.end())
1347        {
1348            // if modified
1349            // put before removing to revert for other ways after calls
1350            auto res = entry.prevRetSSAIdSets.insert(*rit);
1351            if (res.second)
1352                res.first->second = rit->second;
1353            // just remove, if some change without read before
1354            retSSAIdMap.erase(rit);
1355        }
1356    }
1357}
1358
1359// reduce retSSAIds (last SSAIds for regvar) while passing by code block
1360// and emits SSA replaces for these ssaids
1361static bool reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1362            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1363            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
1364{
1365    SSAInfo& sinfo = ssaEntry.second;
1366    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1367    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1368    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1369    {
1370        auto& ssaIds = ssaIdsIt->second.ssaIds;
1371       
1372        if (ssaIds.size() >= 2)
1373        {
1374            // reduce to minimal ssaId from all calls
1375            std::sort(ssaIds.begin(), ssaIds.end());
1376            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1377            // insert SSA replaces
1378            size_t minSSAId = ssaIds.front();
1379            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1380                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1381            ssaId = minSSAId+1; // plus one
1382        }
1383        else if (ssaIds.size() == 1)
1384            ssaId = ssaIds.front()+1; // plus one
1385       
1386        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1387                ssaEntry.first.index << ": " << ssaId << std::endl;
1388        // replace smallest ssaId in routineMap lastSSAId entry
1389        // reduce SSAIds replaces
1390        for (size_t rblock: ssaIdsIt->second.routines)
1391            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1392                            VectorSet<size_t>({ ssaId-1 });
1393        // finally remove from container (because obsolete)
1394        retSSAIdMap.erase(ssaIdsIt);
1395        return true;
1396    }
1397    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1398    {
1399        // put before removing to revert for other ways after calls
1400        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1401        if (res.second)
1402            res.first->second = ssaIdsIt->second;
1403        // just remove, if some change without read before
1404        retSSAIdMap.erase(ssaIdsIt);
1405    }
1406    return false;
1407}
1408
1409// update single current SSAId for routine and optionally lastSSAIdMap if returns
1410// has been encountered but not regvar
1411static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1412                size_t prevSSAId)
1413{
1414    const SSAInfo& sinfo = ssaEntry.second;
1415    bool beforeFirstAccess = true;
1416    // put first SSAId before write
1417    if (sinfo.readBeforeWrite)
1418    {
1419        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1420        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1421            // if already added
1422            beforeFirstAccess = false;
1423    }
1424   
1425    if (sinfo.ssaIdChange != 0)
1426    {
1427        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1428        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1429        // put last SSAId
1430        if (!res.second)
1431        {
1432            beforeFirstAccess = false;
1433            // if not inserted
1434            VectorSet<size_t>& ssaIds = res.first->second;
1435            ssaIds.eraseValue(prevSSAId);
1436            ssaIds.insertValue(sinfo.ssaIdLast);
1437        }
1438        // add readbefore if in previous returns if not added yet
1439        if (rdata.notFirstReturn && beforeFirstAccess)
1440        {
1441            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1442            for (auto& loopEnd: rdata.loopEnds)
1443                loopEnd.second.ssaIdMap.insert({ ssaEntry.first, { prevSSAId } });
1444        }
1445    }
1446    else
1447    {
1448        // insert read ssaid if no change
1449        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1450        if (!res.second)
1451        {
1452            VectorSet<size_t>& ssaIds = res.first->second;
1453            ssaIds.insertValue(prevSSAId);
1454        }
1455    }
1456}
1457
1458static void initializePrevRetSSAIds(const CodeBlock& cblock,
1459            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1460            const RetSSAIdMap& retSSAIdMap, const RoutineData& rdata,
1461            FlowStackEntry& entry)
1462{
1463    for (const auto& v: rdata.lastSSAIdMap)
1464    {
1465        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1466        if (!res.second)
1467            continue; // already added, do not change
1468        auto rfit = retSSAIdMap.find(v.first);
1469        if (rfit != retSSAIdMap.end())
1470            res.first->second = rfit->second;
1471       
1472        auto cbsit = cblock.ssaInfoMap.find(v.first);
1473        auto csit = curSSAIdMap.find(v.first);
1474        res.first->second.prevSSAId = cbsit!=cblock.ssaInfoMap.end() ?
1475                cbsit->second.ssaIdBefore : (csit!=curSSAIdMap.end() ? csit->second : 0);
1476    }
1477}
1478
1479// revert retSSAIdMap while leaving from code block
1480static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1481            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1482{
1483    // revert retSSAIdMap
1484    for (auto v: entry.prevRetSSAIdSets)
1485    {
1486        auto rfit = retSSAIdMap.find(v.first);
1487        if (rdata!=nullptr && rfit != retSSAIdMap.end())
1488        {
1489            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1490            for (size_t ssaId: rfit->second.ssaIds)
1491                ssaIds.eraseValue(ssaId);
1492        }
1493       
1494        if (!v.second.ssaIds.empty())
1495        {
1496            // just add if previously present
1497            if (rfit != retSSAIdMap.end())
1498                rfit->second = v.second;
1499            else
1500                retSSAIdMap.insert(v);
1501        }
1502        else // erase if empty
1503            retSSAIdMap.erase(v.first);
1504       
1505        if (rdata!=nullptr)
1506        {
1507            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1508            for (size_t ssaId: v.second.ssaIds)
1509                ssaIds.insertValue(ssaId);
1510            if (v.second.ssaIds.empty())
1511            {
1512                auto cit = curSSAIdMap.find(v.first);
1513                ssaIds.push_back((cit!=curSSAIdMap.end() ? cit->second : 1)-1);
1514            }
1515           
1516            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1517                    v.first.regVar << ":" << v.first.index << ":";
1518            for (size_t v: ssaIds)
1519                std::cout << " " << v;
1520            std::cout << std::endl;
1521        }
1522        curSSAIdMap[v.first] = v.second.prevSSAId;
1523    }
1524}
1525
1526// update current SSAId in curSSAIdMap for routine while leaving from code block
1527static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1528            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1529{
1530    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1531    std::cout << " pushentry " << entry.blockIndex << ": " <<
1532                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1533    for (size_t v: ssaIds)
1534        std::cout << " " << v;
1535    std::cout << std::endl;
1536   
1537    // if cblock with some children
1538    if (nextSSAId != curSSAId)
1539        ssaIds.eraseValue(nextSSAId-1);
1540   
1541    // push previous SSAId to lastSSAIdMap (later will be replaced)
1542    ssaIds.insertValue(curSSAId-1);
1543   
1544    std::cout << " popentry " << entry.blockIndex << ": " <<
1545                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1546    for (size_t v: ssaIds)
1547        std::cout << " " << v;
1548    std::cout << std::endl;
1549}
1550
1551static bool tryAddLoopEnd(const FlowStackEntry& entry, size_t routineBlock,
1552                RoutineData& rdata, bool isLoop, bool noMainLoop)
1553{
1554    if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1555    {
1556        // handle loops
1557        std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1558        // add to routine data loopEnds
1559        auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1560        if (loopsit2 != rdata.loopEnds.end())
1561        {
1562            if (!loopsit2->second.passed)
1563                // still in loop join ssaid map
1564                joinLastSSAIdMap(loopsit2->second.ssaIdMap, rdata.curSSAIdMap);
1565        }
1566        else
1567            rdata.loopEnds.insert({ entry.blockIndex, { rdata.curSSAIdMap, false } });
1568        return true;
1569    }
1570    return false;
1571}
1572
1573static inline const RoutineData* findRoutine(
1574        const std::unordered_map<size_t, RoutineData>& routineMap,
1575        const std::unordered_map<size_t, RoutineData>* routineMapRecur, size_t block)
1576{
1577    if (routineMapRecur != nullptr)
1578    {
1579        auto rit = routineMapRecur->find(block);
1580        if (rit != routineMapRecur->end())
1581            return &rit->second;
1582    }
1583    auto rit = routineMap.find(block);
1584    return rit!=routineMap.end() ? &rit->second : nullptr;
1585}
1586
1587struct CLRX_INTERNAL RetRecurState
1588{
1589    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
1590    RetSSAIdMap retSSAIdMap;
1591    std::deque<FlowStackEntry> flowStack;
1592    std::vector<bool> flowStackBlocks;
1593    std::deque<CallStackEntry> callStack;
1594};
1595
1596typedef std::unordered_map<size_t, RetRecurState> RetRecurStateMap;
1597
1598typedef std::unordered_map<size_t, std::unordered_map<size_t, RetRecurState> >
1599            RetRecurStateMapMap;
1600
1601static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1602        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1603        const std::unordered_set<size_t>& loopBlocks,
1604        const std::unordered_set<size_t>& recurBlocks,
1605        const ResSecondPointsToCache& subroutToCache,
1606        SimpleCache<size_t, RoutineData>& subroutinesCache,
1607        const std::unordered_map<size_t, RoutineData>& routineMap,
1608        const std::unordered_map<size_t, RoutineData>* routineMapRecur,
1609        RetRecurStateMapMap& retRecurStateMapMap,
1610        RoutineData& rdata, size_t routineBlock, bool noMainLoop = false,
1611        const std::vector<bool>& prevFlowStackBlocks = {},
1612        const std::deque<CallStackEntry>& callStack = {})
1613{
1614    std::cout << "--------- createRoutineData ----------------\n";
1615    std::vector<bool> visited(codeBlocks.size(), false);
1616   
1617    VectorSet<size_t> activeLoops;
1618    SubrLoopsMap subrLoopsMap;
1619    SubrLoopsMap loopSubrsMap;
1620    std::unordered_map<size_t, RoutineData> subrDataForLoopMap;
1621    std::deque<FlowStackEntry> flowStack;
1622    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1623    if (!prevFlowStackBlocks.empty())
1624        flowStackBlocks = prevFlowStackBlocks;
1625    // last SSA ids map from returns
1626    RetSSAIdMap retSSAIdMap;
1627    flowStack.push_back({ routineBlock, 0 });
1628    flowStackBlocks[routineBlock] = true;
1629   
1630    while (!flowStack.empty())
1631    {
1632        FlowStackEntry& entry = flowStack.back();
1633        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1634       
1635        auto addSubroutine = [&](
1636            std::unordered_map<size_t, LoopSSAIdMap>::const_iterator loopsit2,
1637            bool applyToMainRoutine)
1638        {
1639            if (subroutinesCache.hasKey(entry.blockIndex))
1640            {
1641                // if already put, just applyToMainRoutine if needed
1642                if (applyToMainRoutine &&
1643                    loopBlocks.find(entry.blockIndex) != loopBlocks.end() &&
1644                    loopsit2 != rdata.loopEnds.end())
1645                {
1646                    RoutineData* subRdata = subroutinesCache.use(entry.blockIndex);
1647                    joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1648                                        *subRdata, true);
1649                }
1650                return;
1651            }
1652           
1653            RoutineData subrData;
1654            const bool oldFB = flowStackBlocks[entry.blockIndex];
1655            flowStackBlocks[entry.blockIndex] = !oldFB;
1656            createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, recurBlocks,
1657                    subroutToCache, subroutinesCache, routineMap, routineMapRecur,
1658                    retRecurStateMapMap, subrData, entry.blockIndex,
1659                    true, flowStackBlocks);
1660            RoutineData subrDataCopy;
1661            flowStackBlocks[entry.blockIndex] = oldFB;
1662           
1663            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1664            {   // leave from loop point
1665                std::cout << "   loopfound " << entry.blockIndex << std::endl;
1666                if (loopsit2 != rdata.loopEnds.end())
1667                {
1668                    subrDataCopy = subrData;
1669                    subrDataForLoopMap.insert({ entry.blockIndex, subrDataCopy });
1670                    std::cout << "   loopssaId2Map: " <<
1671                            entry.blockIndex << std::endl;
1672                    joinLastSSAIdMap(subrData.lastSSAIdMap,
1673                            loopsit2->second.ssaIdMap, subrData, true);
1674                    std::cout << "   loopssaIdMap2End: " << std::endl;
1675                    if (applyToMainRoutine)
1676                        joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1677                                        subrDataCopy, true);
1678                }
1679            }
1680           
1681            // apply loop to subroutines
1682            auto it = loopSubrsMap.find(entry.blockIndex);
1683            if (it != loopSubrsMap.end())
1684            {
1685                std::cout << "    found loopsubrsmap: " << entry.blockIndex << ":";
1686                for (size_t subr: it->second)
1687                {
1688                    std::cout << " " << subr;
1689                    RoutineData* subrData2 = subroutinesCache.use(subr);
1690                    if (subrData2 == nullptr)
1691                        continue;
1692                    RoutineData subrData2Copy = *subrData2;
1693                    std::cout << "*";
1694                    joinLastSSAIdMap(subrData2Copy.lastSSAIdMap,
1695                            loopsit2->second.ssaIdMap, subrDataCopy, false);
1696                    // reinsert subroutine into subroutine cache
1697                    subrData2Copy.calculateWeight();
1698                    subroutinesCache.put(subr, subrData2Copy);
1699                }
1700                std::cout << "\n";
1701            }
1702            // apply loops to this subroutine
1703            auto it2 = subrLoopsMap.find(entry.blockIndex);
1704            if (it2 != subrLoopsMap.end())
1705            {
1706                std::cout << "    found subrloopsmap: " << entry.blockIndex << ":";
1707                for (auto lit2 = it2->second.rbegin(); lit2 != it2->second.rend(); ++lit2)
1708                {
1709                    size_t loop = *lit2;
1710                    auto loopsit3 = rdata.loopEnds.find(loop);
1711                    if (loopsit3 == rdata.loopEnds.end() ||
1712                        activeLoops.hasValue(loop))
1713                        continue;
1714                    std::cout << " " << loop;
1715                    auto  itx = subrDataForLoopMap.find(loop);
1716                    if (itx != subrDataForLoopMap.end())
1717                        joinLastSSAIdMap(subrData.lastSSAIdMap,
1718                                loopsit3->second.ssaIdMap, itx->second, false);
1719                }
1720                std::cout << "\n";
1721            }
1722           
1723            subrData.calculateWeight();
1724            subroutinesCache.put(entry.blockIndex, subrData);
1725        };
1726       
1727        if (entry.nextIndex == 0)
1728        {
1729            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1730           
1731            if (!prevFlowStackBlocks.empty() && prevFlowStackBlocks[entry.blockIndex])
1732            {
1733                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1734               
1735                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1736                flowStack.pop_back();
1737                continue;
1738            }
1739           
1740            // process current block
1741            //if (/*cachedRdata != nullptr &&*/
1742                //visited[entry.blockIndex] && flowStack.size() > 1)
1743            const RoutineData* cachedRdata = nullptr;
1744           
1745            if (routineBlock != entry.blockIndex)
1746            {
1747                cachedRdata = subroutinesCache.use(entry.blockIndex);
1748                if (cachedRdata == nullptr)
1749                {
1750                    // try in routine map
1751                    /*rit = routineMap.find(entry.blockIndex);
1752                    if (rit != routineMap.end())
1753                        cachedRdata = &rit->second;*/
1754                    cachedRdata = findRoutine(routineMap, routineMapRecur,
1755                                entry.blockIndex);
1756                }
1757                if (!isLoop && visited[entry.blockIndex] && cachedRdata == nullptr &&
1758                    subroutToCache.count(entry.blockIndex)!=0)
1759                {
1760                    auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1761                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1762                    addSubroutine(loopsit2, false);
1763                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1764                }
1765            }
1766           
1767            if (cachedRdata != nullptr)
1768            {
1769                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1770                std::cout << "procret2: " << entry.blockIndex << std::endl;
1771                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1772                // get not given rdata curSSAIdMap ssaIds but present in cachedRdata
1773                // curSSAIdMap
1774                for (const auto& entry: cachedRdata->curSSAIdMap)
1775                    if (rdata.curSSAIdMap.find(entry.first) == rdata.curSSAIdMap.end())
1776                    {
1777                        auto cit = curSSAIdMap.find(entry.first);
1778                        size_t prevSSAId = (cit!=curSSAIdMap.end() ? cit->second : 1)-1;
1779                        rdata.curSSAIdMap.insert({ entry.first, { prevSSAId } });
1780                       
1781                        if (rdata.notFirstReturn)
1782                        {
1783                            rdata.lastSSAIdMap.insertSSAId(entry.first, prevSSAId);
1784                            for (auto& loopEnd: rdata.loopEnds)
1785                                loopEnd.second.ssaIdMap.
1786                                        insertSSAId(entry.first, prevSSAId);
1787                        }
1788                    }
1789               
1790                // join loopEnds
1791                for (const auto& loopEnd: cachedRdata->loopEnds)
1792                {
1793                    auto res = rdata.loopEnds.insert({ loopEnd.first, LoopSSAIdMap() });
1794                    // true - do not add cached rdata loopend, because it was added
1795                    joinLastSSAIdMapInt(res.first->second.ssaIdMap, rdata.curSSAIdMap,
1796                                cachedRdata->curSSAIdMap, loopEnd.second.ssaIdMap, true);
1797                }
1798                std::cout << "procretend2" << std::endl;
1799                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1800                flowStack.pop_back();
1801                continue;
1802            }
1803            else if (!visited[entry.blockIndex])
1804            {
1805                // set up loops for which subroutine is present
1806                if (subroutToCache.count(entry.blockIndex)!=0 && !activeLoops.empty())
1807                {
1808                    subrLoopsMap.insert({ entry.blockIndex, activeLoops });
1809                    for (size_t loop: activeLoops)
1810                    {
1811                        auto res = loopSubrsMap.insert({ loop, { entry.blockIndex} });
1812                        if (!res.second)
1813                            res.first->second.insertValue(entry.blockIndex);
1814                    }
1815                }
1816               
1817                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1818                    activeLoops.insertValue(entry.blockIndex);
1819                std::cout << "proc: " << entry.blockIndex << std::endl;
1820                visited[entry.blockIndex] = true;
1821               
1822                for (const auto& ssaEntry: cblock.ssaInfoMap)
1823                    if (ssaEntry.first.regVar != nullptr)
1824                    {
1825                        // put data to routine data
1826                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1827                       
1828                        if (ssaEntry.second.ssaIdChange!=0)
1829                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1830                    }
1831            }
1832            else
1833            {
1834                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1835                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1836                flowStack.pop_back();
1837                continue;
1838            }
1839        }
1840       
1841        // join and skip calls
1842        for (; entry.nextIndex < cblock.nexts.size() &&
1843                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1844        {
1845            const size_t nextRBlock = cblock.nexts[entry.nextIndex].block;
1846            if (recurBlocks.find(nextRBlock) != recurBlocks.end())
1847            {
1848                std::cout << "-- crd recurBlock store ppoint: " << nextRBlock
1849                        << std::endl;
1850                continue;
1851            }
1852           
1853            //joinRoutineData(rdata, routineMap.find(
1854            //                cblock.nexts[entry.nextIndex].block)->second);
1855            joinRoutineData(rdata, *findRoutine(routineMap, routineMapRecur, nextRBlock));
1856        }
1857       
1858        if (entry.nextIndex < cblock.nexts.size())
1859        {
1860            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
1861            flowStack.push_back({ nextBlock, 0 });
1862            // negate - if true (already in flowstack, then popping keep this state)
1863            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1864            entry.nextIndex++;
1865        }
1866        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1867                // if have any call then go to next block
1868                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1869                 !cblock.haveReturn && !cblock.haveEnd)
1870        {
1871            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1872            {
1873                for (const NextBlock& next: cblock.nexts)
1874                    if (next.isCall)
1875                    {
1876                        //std::cout << "joincall:"<< next.block << std::endl;
1877                        const RoutineData* callRdata = findRoutine(routineMap,
1878                                routineMapRecur, next.block); // must find
1879                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1880                                    *callRdata, entry);
1881                       
1882                        if (recurBlocks.find(next.block) == recurBlocks.end())
1883                            joinRetSSAIdMap(retSSAIdMap, callRdata->lastSSAIdMap,
1884                                            next.block);
1885                        else
1886                        {   // put retRecurState
1887                            std::cout << "-- store retrecurstate: " <<
1888                                    next.block << ": " << entry.blockIndex << std::endl;
1889                            retRecurStateMapMap[next.block].insert({ entry.blockIndex, {
1890                                    curSSAIdMap, retSSAIdMap,
1891                                    flowStack, flowStackBlocks, callStack } });
1892                        }
1893                    }
1894            }
1895            const size_t nextBlock = entry.blockIndex+1;
1896            flowStack.push_back({ nextBlock, 0 });
1897            // negate - if true (already in flowstack, then popping keep this state)
1898            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1899            entry.nextIndex++;
1900        }
1901        else
1902        {
1903            std::cout << "popstart: " << entry.blockIndex << std::endl;
1904            if (cblock.haveReturn)
1905            {
1906                std::cout << "procret: " << entry.blockIndex << std::endl;
1907                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1908                std::cout << "procretend" << std::endl;
1909                rdata.notFirstReturn = true;
1910            }
1911           
1912            // revert retSSAIdMap
1913            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
1914            //
1915           
1916            for (const auto& ssaEntry: cblock.ssaInfoMap)
1917            {
1918                if (ssaEntry.first.regVar == nullptr)
1919                    continue;
1920                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1921                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1922                    ssaEntry.second.ssaIdLast+1 : curSSAId;
1923                curSSAIdMap[ssaEntry.first] = curSSAId;
1924               
1925                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1926                            ":" << ssaEntry.first.index << ": " <<
1927                            nextSSAId << ", " << curSSAId << std::endl;
1928               
1929                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1930            }
1931           
1932            activeLoops.eraseValue(entry.blockIndex);
1933           
1934            auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1935            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1936            {
1937                if (loopsit2 != rdata.loopEnds.end())
1938                {
1939                    std::cout << "   mark loopblocks passed: " <<
1940                                entry.blockIndex << std::endl;
1941                    // mark that loop has passed fully
1942                    loopsit2->second.passed = true;
1943                }
1944                else
1945                    std::cout << "   loopblocks nopassed: " <<
1946                                entry.blockIndex << std::endl;
1947            }
1948           
1949            if ((!noMainLoop || flowStack.size() > 1) &&
1950                subroutToCache.count(entry.blockIndex)!=0 &&
1951                recurBlocks.find(entry.blockIndex) == recurBlocks.end())
1952            {   //put to cache
1953                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
1954                addSubroutine(loopsit2, true);
1955            }
1956           
1957            flowStackBlocks[entry.blockIndex] = false;
1958            std::cout << "pop: " << entry.blockIndex << std::endl;
1959            flowStack.pop_back();
1960        }
1961    }
1962    std::cout << "--------- createRoutineData end ------------\n";
1963}
1964
1965
1966static void passSecondRecurPass(const std::vector<CodeBlock>& codeBlocks,
1967            std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1968            const ResSecondPointsToCache& cblocksToCache,
1969            const std::unordered_set<size_t>& loopBlocks,
1970            const std::unordered_set<size_t>& recurseBlocks,
1971            std::unordered_map<size_t, RoutineData>& routineMap,
1972            RetSSAIdMap& retSSAIdMap, SSAReplacesMap& ssaReplacesMap,
1973            RetRecurStateMapMap& retRecurStateMapMap,
1974            size_t recurBlock, RoutineData& rdataSP)
1975{
1976    std::cout << "----- passSecondRecurPass: " << recurBlock << std::endl;
1977    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
1978   
1979    // routineMapSP - routine Map for second of the recursion
1980    std::unordered_map<size_t, RoutineData> routineMapSP;
1981    std::vector<bool> isRoutineGen(codeBlocks.size(), false);
1982    std::deque<CallStackEntry> callStack;
1983    std::deque<FlowStackEntry> flowStack;
1984    std::vector<bool> visited(codeBlocks.size(), false);
1985    flowStack.push_back({ recurBlock, 0 });
1986   
1987    callStack.push_back({ SIZE_MAX, 0, recurBlock });
1988    routineMapSP.insert({ recurBlock, { } });
1989   
1990    while (!flowStack.empty())
1991    {
1992        FlowStackEntry& entry = flowStack.back();
1993        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1994       
1995        if (entry.nextIndex == 0)
1996        {
1997            // process current block
1998            if (!visited[entry.blockIndex])
1999            {
2000                std::cout << "proc: " << entry.blockIndex << std::endl;
2001                visited[entry.blockIndex] = true;
2002               
2003                for (const auto& ssaEntry: cblock.ssaInfoMap)
2004                    if (ssaEntry.first.regVar != nullptr && ssaEntry.second.ssaIdChange!=0)
2005                        curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
2006            }
2007            else
2008            {
2009                flowStack.pop_back();
2010                continue;
2011            }
2012        }
2013       
2014        if (!callStack.empty() &&
2015            entry.blockIndex == callStack.back().callBlock &&
2016            entry.nextIndex-1 == callStack.back().callNextIndex)
2017        {
2018            std::cout << " ret: " << entry.blockIndex << std::endl;
2019            const size_t routineBlock = callStack.back().routineBlock;
2020            RoutineData& prevRdata = routineMapSP.find(routineBlock)->second;
2021            if (!isRoutineGen[routineBlock])
2022            {
2023                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, recurseBlocks,
2024                        cblocksToCache, subroutinesCache, routineMap, &routineMapSP,
2025                        retRecurStateMapMap, prevRdata, routineBlock,
2026                        false, {}, callStack);
2027                //prevRdata.compare(myRoutineData);
2028                isRoutineGen[routineBlock] = true;
2029            }
2030           
2031            callStack.pop_back(); // just return from call
2032            //callBlocks.erase(routineBlock);
2033        }
2034       
2035        if (entry.nextIndex < cblock.nexts.size())
2036        {
2037            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
2038            if (cblock.nexts[entry.nextIndex].isCall)
2039            {
2040                std::cout << " call: " << entry.blockIndex << std::endl;
2041                if (recurseBlocks.find(nextBlock) == recurseBlocks.end())
2042                {
2043                    // no recursion - normal call
2044                    callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
2045                    routineMapSP.insert({ nextBlock, { } });
2046                }
2047                else
2048                    std::cout << "   -- recursion: " << nextBlock << std::endl;
2049            }
2050            entry.nextIndex++;
2051        }
2052        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2053                // if have any call then go to next block
2054                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2055                 !cblock.haveReturn && !cblock.haveEnd)
2056        {
2057            if (entry.nextIndex!=0) // if back from calls (just return from calls)
2058            {
2059                reduceSSAIdsForCalls(entry, codeBlocks, retSSAIdMap, routineMapSP,
2060                                     ssaReplacesMap);
2061                //
2062                for (const NextBlock& next: cblock.nexts)
2063                    if (next.isCall)
2064                    {
2065                        //std::cout << "joincall:"<< next.block << std::endl;
2066                        auto it = routineMap.find(next.block); // must find
2067                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
2068                                    it->second, entry);
2069                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
2070                    }
2071            }
2072            entry.nextIndex++;
2073        }
2074        else
2075        {
2076            RoutineData* rdata = nullptr;
2077            if (!callStack.empty())
2078                rdata = &(routineMapSP.find(callStack.back().routineBlock)->second);
2079           
2080            // revert retSSAIdMap
2081            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
2082            //
2083           
2084            for (const auto& ssaEntry: cblock.ssaInfoMap)
2085            {
2086                if (ssaEntry.first.regVar == nullptr)
2087                    continue;
2088               
2089                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
2090                const size_t nextSSAId = curSSAId;
2091                curSSAId = ssaEntry.second.ssaIdBefore+1;
2092               
2093                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2094                            ":" << ssaEntry.first.index << ": " <<
2095                            nextSSAId << ", " << curSSAId << std::endl;
2096            }
2097           
2098            std::cout << "pop: " << entry.blockIndex << std::endl;
2099            //flowStackBlocks[entry.blockIndex] = false;
2100            flowStack.pop_back();
2101        }
2102    }
2103    std::cout << "----- passSecondRecurPass end: " << recurBlock << std::endl;
2104   
2105    rdataSP = routineMapSP.find(recurBlock)->second;
2106    createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, recurseBlocks, cblocksToCache,
2107                subroutinesCache, routineMap, &routineMapSP,
2108                retRecurStateMapMap, rdataSP, recurBlock);
2109   
2110    // replace routineMap entries by routineMapSP entries
2111    for (const auto& entry: routineMapSP)
2112        if (entry.first != recurBlock)
2113            routineMap[entry.first] = entry.second;
2114    std::cout << "----- passSecondRecurPass after: " << recurBlock << std::endl;
2115}
2116
2117
2118struct CLRX_INTERNAL RecurStateEntry
2119{
2120    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
2121    RetSSAIdMap retSSAIdMap;
2122};
2123
2124void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
2125{
2126    if (codeBlocks.empty())
2127        return;
2128    usageHandler.rewind();
2129    auto cbit = codeBlocks.begin();
2130    AsmRegVarUsage rvu;
2131    if (!usageHandler.hasNext())
2132        return; // do nothing if no regusages
2133    rvu = usageHandler.nextUsage();
2134   
2135    cxuint regRanges[MAX_REGTYPES_NUM*2];
2136    cxuint realRegsCount[MAX_REGTYPES_NUM];
2137    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
2138    size_t regTypesNum;
2139    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2140   
2141    while (true)
2142    {
2143        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
2144        {
2145            cbit->usagePos = usageHandler.getReadPos();
2146            ++cbit;
2147        }
2148        if (cbit == codeBlocks.end())
2149            break;
2150        // skip rvu's before codeblock
2151        while (rvu.offset < cbit->start && usageHandler.hasNext())
2152            rvu = usageHandler.nextUsage();
2153        if (rvu.offset < cbit->start)
2154            break;
2155       
2156        cbit->usagePos = usageHandler.getReadPos();
2157        while (rvu.offset < cbit->end)
2158        {
2159            // process rvu
2160            // only if regVar
2161            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2162            {
2163                auto res = cbit->ssaInfoMap.insert(
2164                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
2165               
2166                SSAInfo& sinfo = res.first->second;
2167                if (res.second)
2168                    sinfo.firstPos = rvu.offset;
2169                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
2170                    // if first write RVU instead read RVU
2171                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
2172                    sinfo.readBeforeWrite = true;
2173                /* change SSA id only for write-only regvars -
2174                 *   read-write place can not have two different variables */
2175                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
2176                    sinfo.ssaIdChange++;
2177                if (rvu.regVar==nullptr)
2178                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
2179                            sinfo.ssaId = sinfo.ssaIdLast = 0;
2180            }
2181            // get next rvusage
2182            if (!usageHandler.hasNext())
2183                break;
2184            rvu = usageHandler.nextUsage();
2185        }
2186        ++cbit;
2187    }
2188   
2189    size_t rbwCount = 0;
2190    size_t wrCount = 0;
2191   
2192    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
2193   
2194    std::deque<CallStackEntry> callStack;
2195    std::deque<FlowStackEntry> flowStack;
2196    // total SSA count
2197    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
2198    // last SSA ids map from returns
2199    RetSSAIdMap retSSAIdMap;
2200    // last SSA ids in current way in code flow
2201    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
2202    // routine map - routine datas map, value - last SSA ids map
2203    std::unordered_map<size_t, RoutineData> routineMap;
2204    // key - current res first key, value - previous first key and its flowStack pos
2205    PrevWaysIndexMap prevWaysIndexMap;
2206    // to track ways last block indices pair: block index, flowStackPos)
2207    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
2208    std::vector<bool> isRoutineGen(codeBlocks.size(), false);
2209   
2210    std::vector<bool> waysToCache(codeBlocks.size(), false);
2211    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
2212    // subroutToCache - true if given block begin subroutine to cache
2213    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
2214    std::vector<bool> visited(codeBlocks.size(), false);
2215    flowStack.push_back({ 0, 0 });
2216    flowStackBlocks[0] = true;
2217   
2218    RetRecurStateMapMap retRecurStateMapMap;
2219    std::unordered_map<size_t, RecurStateEntry> recurStateMap;
2220    std::unordered_set<size_t> callBlocks;
2221    std::unordered_set<size_t> loopBlocks;
2222    std::unordered_set<size_t> recurseBlocks;
2223   
2224    while (!flowStack.empty())
2225    {
2226        FlowStackEntry& entry = flowStack.back();
2227        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2228       
2229        if (entry.nextIndex == 0)
2230        {
2231            // process current block
2232            if (!visited[entry.blockIndex])
2233            {
2234                std::cout << "proc: " << entry.blockIndex << std::endl;
2235                visited[entry.blockIndex] = true;
2236               
2237                for (auto& ssaEntry: cblock.ssaInfoMap)
2238                {
2239                    SSAInfo& sinfo = ssaEntry.second;
2240                    if (ssaEntry.first.regVar==nullptr)
2241                    {
2242                        // TODO - pass registers through SSA marking and resolving
2243                        sinfo.ssaIdChange = 0; // zeroing SSA changes
2244                        continue; // no change for registers
2245                    }
2246                   
2247                    bool reducedSSAId = reduceSSAIds(curSSAIdMap, retSSAIdMap,
2248                                routineMap, ssaReplacesMap, entry, ssaEntry);
2249                   
2250                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
2251                   
2252                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
2253                    if (totalSSACount == 0)
2254                    {
2255                        // first read before write at all, need change totalcount, ssaId
2256                        ssaId++;
2257                        totalSSACount++;
2258                    }
2259                   
2260                    sinfo.ssaId = totalSSACount;
2261                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
2262                    sinfo.ssaIdBefore = ssaId-1;
2263                   
2264                    totalSSACount += sinfo.ssaIdChange;
2265                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
2266                    //totalSSACount = std::max(totalSSACount, ssaId);
2267                    if (!reducedSSAId || sinfo.ssaIdChange!=0)
2268                        ssaId = totalSSACount;
2269                   
2270                    // count read before writes (for cache weight)
2271                    if (sinfo.readBeforeWrite)
2272                        rbwCount++;
2273                    if (sinfo.ssaIdChange!=0)
2274                        wrCount++;
2275                }
2276            }
2277            else
2278            {
2279                // handle caching for res second point
2280                cblocksToCache.increase(entry.blockIndex);
2281                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
2282                            cblocksToCache.count(entry.blockIndex) << std::endl;
2283                // back, already visited
2284                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
2285                flowStack.pop_back();
2286               
2287                size_t curWayBIndex = flowStack.back().blockIndex;
2288                if (lastCommonCacheWayPoint.first != SIZE_MAX)
2289                {
2290                    // mark point of way to cache (res first point)
2291                    waysToCache[lastCommonCacheWayPoint.first] = true;
2292                    std::cout << "mark to pfcache " <<
2293                            lastCommonCacheWayPoint.first << ", " <<
2294                            curWayBIndex << std::endl;
2295                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
2296                }
2297                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
2298                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
2299                continue;
2300            }
2301        }
2302       
2303        if (!callStack.empty() &&
2304            entry.blockIndex == callStack.back().callBlock &&
2305            entry.nextIndex-1 == callStack.back().callNextIndex)
2306        {
2307            std::cout << " ret: " << entry.blockIndex << std::endl;
2308            const size_t routineBlock = callStack.back().routineBlock;
2309            RoutineData& prevRdata = routineMap.find(routineBlock)->second;
2310            if (recurseBlocks.find(routineBlock) != recurseBlocks.end())
2311            {
2312                std::cout << "store recuState: " << routineBlock << std::endl;
2313                recurStateMap.insert({ routineBlock, { curSSAIdMap, retSSAIdMap } });
2314            }
2315           
2316            if (!isRoutineGen[routineBlock] && !flowStackBlocks[routineBlock])
2317            {
2318                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, recurseBlocks,
2319                        cblocksToCache, subroutinesCache, routineMap, nullptr,
2320                        retRecurStateMapMap, prevRdata, routineBlock);
2321                //prevRdata.compare(myRoutineData);
2322               
2323                auto rsit = recurStateMap.find(routineBlock);
2324                if (rsit != recurStateMap.end())
2325                {
2326                    // second pass through recursion
2327                    RoutineData rdataSP;
2328                    passSecondRecurPass(codeBlocks, rsit->second.curSSAIdMap,
2329                            cblocksToCache, loopBlocks, recurseBlocks, routineMap,
2330                            rsit->second.retSSAIdMap, ssaReplacesMap,
2331                            retRecurStateMapMap, routineBlock, rdataSP);
2332                    recurseBlocks.erase(routineBlock);
2333                    // join retRecurStates
2334                    for (const auto& entry: retRecurStateMapMap[routineBlock])
2335                        std::cout << "join retrecState: " << entry.first << std::endl;
2336                }
2337               
2338                isRoutineGen[routineBlock] = true;
2339            }
2340           
2341            callStack.pop_back(); // just return from call
2342            callBlocks.erase(routineBlock);
2343        }
2344       
2345        if (entry.nextIndex < cblock.nexts.size())
2346        {
2347            bool isCall = false;
2348            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
2349            if (cblock.nexts[entry.nextIndex].isCall)
2350            {
2351                std::cout << " call: " << entry.blockIndex << std::endl;
2352                if (!callBlocks.insert(nextBlock).second)
2353                {
2354                    std::cout << "   -- recursion: " << nextBlock << std::endl;
2355                    // if already called (then it is recursion)
2356                    recurseBlocks.insert(nextBlock);
2357                }
2358               
2359                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
2360                routineMap.insert({ nextBlock, { } });
2361                isCall = true;
2362            }
2363           
2364            flowStack.push_back({ nextBlock, 0, isCall });
2365            if (flowStackBlocks[nextBlock])
2366            {
2367                if (!cblock.nexts[entry.nextIndex].isCall)
2368                    loopBlocks.insert(nextBlock);
2369                flowStackBlocks[nextBlock] = false; // keep to inserted in popping
2370            }
2371            else
2372                flowStackBlocks[nextBlock] = true;
2373            entry.nextIndex++;
2374        }
2375        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2376                // if have any call then go to next block
2377                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2378                 !cblock.haveReturn && !cblock.haveEnd)
2379        {
2380            if (entry.nextIndex!=0) // if back from calls (just return from calls)
2381            {
2382                reduceSSAIdsForCalls(entry, codeBlocks, retSSAIdMap, routineMap,
2383                                     ssaReplacesMap);
2384                //
2385                for (const NextBlock& next: cblock.nexts)
2386                    if (next.isCall)
2387                    {
2388                        //std::cout << "joincall:"<< next.block << std::endl;
2389                        auto it = routineMap.find(next.block); // must find
2390                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
2391                                    it->second, entry);
2392                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
2393                    }
2394            }
2395            flowStack.push_back({ entry.blockIndex+1, 0, false });
2396            if (flowStackBlocks[entry.blockIndex+1])
2397            {
2398                loopBlocks.insert(entry.blockIndex+1);
2399                 // keep to inserted in popping
2400                flowStackBlocks[entry.blockIndex+1] = false;
2401            }
2402            else
2403                flowStackBlocks[entry.blockIndex+1] = true;
2404            entry.nextIndex++;
2405        }
2406        else // back
2407        {
2408            RoutineData* rdata = nullptr;
2409            if (!callStack.empty())
2410                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
2411           
2412            // revert retSSAIdMap
2413            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
2414            //
2415           
2416            for (const auto& ssaEntry: cblock.ssaInfoMap)
2417            {
2418                if (ssaEntry.first.regVar == nullptr)
2419                    continue;
2420               
2421                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
2422                const size_t nextSSAId = curSSAId;
2423                curSSAId = ssaEntry.second.ssaIdBefore+1;
2424               
2425                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2426                            ":" << ssaEntry.first.index << ": " <<
2427                            nextSSAId << ", " << curSSAId << std::endl;
2428            }
2429           
2430            std::cout << "pop: " << entry.blockIndex << std::endl;
2431            flowStackBlocks[entry.blockIndex] = false;
2432            flowStack.pop_back();
2433            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
2434                    lastCommonCacheWayPoint.second >= flowStack.size())
2435            {
2436                lastCommonCacheWayPoint =
2437                        { flowStack.back().blockIndex, flowStack.size()-1 };
2438                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
2439            }
2440        }
2441    }
2442   
2443    /**********
2444     * after that, we find points to resolve conflicts
2445     **********/
2446    flowStack.clear();
2447    std::deque<FlowStackEntry2> flowStack2;
2448   
2449    std::fill(visited.begin(), visited.end(), false);
2450    flowStack2.push_back({ 0, 0 });
2451   
2452    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
2453    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
2454   
2455    while (!flowStack2.empty())
2456    {
2457        FlowStackEntry2& entry = flowStack2.back();
2458        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2459       
2460        if (entry.nextIndex == 0)
2461        {
2462            // process current block
2463            if (!visited[entry.blockIndex])
2464                visited[entry.blockIndex] = true;
2465            else
2466            {
2467                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
2468                            prevWaysIndexMap, waysToCache, cblocksToCache,
2469                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
2470               
2471                // back, already visited
2472                flowStack2.pop_back();
2473                continue;
2474            }
2475        }
2476       
2477        if (entry.nextIndex < cblock.nexts.size())
2478        {
2479            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2480            entry.nextIndex++;
2481        }
2482        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2483                // if have any call then go to next block
2484                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2485                 !cblock.haveReturn && !cblock.haveEnd)
2486        {
2487            flowStack2.push_back({ entry.blockIndex+1, 0 });
2488            entry.nextIndex++;
2489        }
2490        else // back
2491        {
2492            if (cblocksToCache.count(entry.blockIndex)==2 &&
2493                !resSecondPointsCache.hasKey(entry.blockIndex))
2494                // add to cache
2495                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
2496                            entry.blockIndex);
2497            flowStack2.pop_back();
2498        }
2499    }
2500}
2501
2502void AsmRegAllocator::applySSAReplaces()
2503{
2504    /* prepare SSA id replaces */
2505    struct MinSSAGraphNode
2506    {
2507        size_t minSSAId;
2508        bool visited;
2509        std::unordered_set<size_t> nexts;
2510        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
2511    };
2512    struct MinSSAGraphStackEntry
2513    {
2514        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
2515        std::unordered_set<size_t>::const_iterator nextIt;
2516        size_t minSSAId;
2517    };
2518   
2519    for (auto& entry: ssaReplacesMap)
2520    {
2521        VectorSet<SSAReplace>& replaces = entry.second;
2522        std::sort(replaces.begin(), replaces.end());
2523        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
2524        VectorSet<SSAReplace> newReplaces;
2525       
2526        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
2527       
2528        auto it = replaces.begin();
2529        while (it != replaces.end())
2530        {
2531            auto itEnd = std::upper_bound(it, replaces.end(),
2532                            std::make_pair(it->first, size_t(SIZE_MAX)));
2533            {
2534                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2535                node.minSSAId = std::min(node.minSSAId, it->second);
2536                for (auto it2 = it; it2 != itEnd; ++it2)
2537                    node.nexts.insert(it->second);
2538            }
2539            it = itEnd;
2540        }
2541        // propagate min value
2542        std::stack<MinSSAGraphStackEntry> minSSAStack;
2543        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
2544                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
2545        {
2546            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2547            // traverse with minimalize SSA id
2548            while (!minSSAStack.empty())
2549            {
2550                MinSSAGraphStackEntry& entry = minSSAStack.top();
2551                MinSSAGraphNode& node = entry.nodeIt->second;
2552                bool toPop = false;
2553                if (entry.nextIt == node.nexts.begin())
2554                {
2555                    if (!node.visited)
2556                        node.visited = true;
2557                    else
2558                        toPop = true;
2559                }
2560                if (!toPop && entry.nextIt != node.nexts.end())
2561                {
2562                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2563                    if (nodeIt != ssaGraphNodes.end())
2564                    {
2565                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2566                                nodeIt->second.minSSAId });
2567                    }
2568                    ++entry.nextIt;
2569                }
2570                else
2571                {
2572                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2573                    minSSAStack.pop();
2574                    if (!minSSAStack.empty())
2575                    {
2576                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2577                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2578                    }
2579                }
2580            }
2581            // skip visited nodes
2582            while (ssaGraphNodeIt != ssaGraphNodes.end())
2583                if (!ssaGraphNodeIt->second.visited)
2584                    break;
2585        }
2586       
2587        for (const auto& entry: ssaGraphNodes)
2588            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2589       
2590        std::sort(newReplaces.begin(), newReplaces.end());
2591        entry.second = newReplaces;
2592    }
2593   
2594    /* apply SSA id replaces */
2595    for (CodeBlock& cblock: codeBlocks)
2596        for (auto& ssaEntry: cblock.ssaInfoMap)
2597        {
2598            auto it = ssaReplacesMap.find(ssaEntry.first);
2599            if (it == ssaReplacesMap.end())
2600                continue;
2601            SSAInfo& sinfo = ssaEntry.second;
2602            VectorSet<SSAReplace>& replaces = it->second;
2603            if (sinfo.readBeforeWrite)
2604            {
2605                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2606                                 ssaEntry.second.ssaIdBefore);
2607                if (rit != replaces.end())
2608                    sinfo.ssaIdBefore = rit->second; // replace
2609            }
2610            if (sinfo.ssaIdFirst != SIZE_MAX)
2611            {
2612                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2613                                 ssaEntry.second.ssaIdFirst);
2614                if (rit != replaces.end())
2615                    sinfo.ssaIdFirst = rit->second; // replace
2616            }
2617            if (sinfo.ssaIdLast != SIZE_MAX)
2618            {
2619                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2620                                 ssaEntry.second.ssaIdLast);
2621                if (rit != replaces.end())
2622                    sinfo.ssaIdLast = rit->second; // replace
2623            }
2624        }
2625}
2626
2627struct Liveness
2628{
2629    std::map<size_t, size_t> l;
2630   
2631    Liveness() { }
2632   
2633    void clear()
2634    { l.clear(); }
2635   
2636    void expand(size_t k)
2637    {
2638        if (l.empty())
2639            l.insert(std::make_pair(k, k+1));
2640        else
2641        {
2642            auto it = l.end();
2643            --it;
2644            it->second = k+1;
2645        }
2646    }
2647    void newRegion(size_t k)
2648    {
2649        if (l.empty())
2650            l.insert(std::make_pair(k, k));
2651        else
2652        {
2653            auto it = l.end();
2654            --it;
2655            if (it->first != k && it->second != k)
2656                l.insert(std::make_pair(k, k));
2657        }
2658    }
2659   
2660    void insert(size_t k, size_t k2)
2661    {
2662        auto it1 = l.lower_bound(k);
2663        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2664            --it1;
2665        if (it1->second < k)
2666            ++it1;
2667        auto it2 = l.lower_bound(k2);
2668        if (it1!=it2)
2669        {
2670            k = std::min(k, it1->first);
2671            k2 = std::max(k2, (--it2)->second);
2672            l.erase(it1, it2);
2673        }
2674        l.insert(std::make_pair(k, k2));
2675    }
2676   
2677    bool contain(size_t t) const
2678    {
2679        auto it = l.lower_bound(t);
2680        if (it==l.begin() && it->first>t)
2681            return false;
2682        if (it==l.end() || it->first>t)
2683            --it;
2684        return it->first<=t && t<it->second;
2685    }
2686   
2687    bool common(const Liveness& b) const
2688    {
2689        auto i = l.begin();
2690        auto j = b.l.begin();
2691        for (; i != l.end() && j != b.l.end();)
2692        {
2693            if (i->first==i->second)
2694            {
2695                ++i;
2696                continue;
2697            }
2698            if (j->first==j->second)
2699            {
2700                ++j;
2701                continue;
2702            }
2703            if (i->first<j->first)
2704            {
2705                if (i->second > j->first)
2706                    return true; // common place
2707                ++i;
2708            }
2709            else
2710            {
2711                if (i->first < j->second)
2712                    return true; // common place
2713                ++j;
2714            }
2715        }
2716        return false;
2717    }
2718};
2719
2720typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2721
2722static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2723            const AsmSingleVReg& svreg)
2724{
2725    cxuint regType; // regtype
2726    if (svreg.regVar!=nullptr)
2727        regType = svreg.regVar->type;
2728    else
2729        for (regType = 0; regType < regTypesNum; regType++)
2730            if (svreg.index >= regRanges[regType<<1] &&
2731                svreg.index < regRanges[(regType<<1)+1])
2732                break;
2733    return regType;
2734}
2735
2736static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2737        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2738        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2739{
2740    size_t ssaId;
2741    if (svreg.regVar==nullptr)
2742        ssaId = 0;
2743    else if (ssaIdIdx==0)
2744        ssaId = ssaInfo.ssaIdBefore;
2745    else if (ssaIdIdx==1)
2746        ssaId = ssaInfo.ssaIdFirst;
2747    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2748        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2749    else // last
2750        ssaId = ssaInfo.ssaIdLast;
2751   
2752    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2753    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2754    const std::vector<size_t>& ssaIdIndices =
2755                vregIndexMap.find(svreg)->second;
2756    return livenesses[regType][ssaIdIndices[ssaId]];
2757}
2758
2759typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
2760
2761struct CLRX_INTERNAL VRegLastPos
2762{
2763    size_t ssaId; // last SSA id
2764    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2765};
2766
2767/* TODO: add handling calls
2768 * handle many start points in this code (for example many kernel's in same code)
2769 * replace sets by vector, and sort and remove same values on demand
2770 */
2771
2772typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2773
2774static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
2775        const std::vector<CodeBlock>& codeBlocks,
2776        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2777        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2778        size_t regTypesNum, const cxuint* regRanges)
2779{
2780    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2781    for (const auto& entry: cblock.ssaInfoMap)
2782        if (entry.second.readBeforeWrite)
2783        {
2784            // find last
2785            auto lvrit = lastVRegMap.find(entry.first);
2786            if (lvrit == lastVRegMap.end())
2787                continue; // not found
2788            const VRegLastPos& lastPos = lvrit->second;
2789            FlowStackCIter flit = lastPos.blockChain.back();
2790            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2791            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2792            const std::vector<size_t>& ssaIdIndices =
2793                        vregIndexMap.find(entry.first)->second;
2794            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2795            FlowStackCIter flitEnd = flowStack.end();
2796            --flitEnd; // before last element
2797            // insert live time to last seen position
2798            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2799            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2800            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2801                    toLiveCvt + lastBlk.end);
2802            for (++flit; flit != flitEnd; ++flit)
2803            {
2804                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2805                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2806                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2807            }
2808        }
2809}
2810
2811static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
2812        const std::vector<CodeBlock>& codeBlocks,
2813        const Array<size_t>& codeBlockLiveTimes,
2814        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2815        size_t regTypesNum, const cxuint* regRanges)
2816{
2817    auto flitStart = flowStack.end();
2818    --flitStart;
2819    size_t curBlock = flitStart->blockIndex;
2820    // find step in way
2821    while (flitStart->blockIndex != curBlock) --flitStart;
2822    auto flitEnd = flowStack.end();
2823    --flitEnd;
2824    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2825   
2826    // collect var to check
2827    size_t flowPos = 0;
2828    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2829    {
2830        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2831        for (const auto& entry: cblock.ssaInfoMap)
2832        {
2833            const SSAInfo& sinfo = entry.second;
2834            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2835                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2836            varMap[entry.first] = { lastSSAId, flowPos };
2837        }
2838    }
2839    // find connections
2840    flowPos = 0;
2841    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2842    {
2843        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2844        for (const auto& entry: cblock.ssaInfoMap)
2845        {
2846            const SSAInfo& sinfo = entry.second;
2847            auto varMapIt = varMap.find(entry.first);
2848            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2849                flowPos > varMapIt->second.second ||
2850                sinfo.ssaIdBefore != varMapIt->second.first)
2851                continue;
2852            // just connect
2853           
2854            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2855            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2856            const std::vector<size_t>& ssaIdIndices =
2857                        vregIndexMap.find(entry.first)->second;
2858            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2859           
2860            if (flowPos == varMapIt->second.second)
2861            {
2862                // fill whole loop
2863                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2864                {
2865                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2866                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2867                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2868                }
2869                continue;
2870            }
2871           
2872            size_t flowPos2 = 0;
2873            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2874            {
2875                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2876                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2877                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2878            }
2879            // insert liveness for last block in loop of last SSAId (prev round)
2880            auto flit2 = flitStart + flowPos;
2881            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2882            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2883            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2884                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2885            // insert liveness for first block in loop of last SSAId
2886            flit2 = flitStart + (varMapIt->second.second+1);
2887            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2888            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2889            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2890                    toLiveCvt + lastBlk.end);
2891            // fill up loop end
2892            for (++flit2; flit2 != flitEnd; ++flit2)
2893            {
2894                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2895                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2896                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2897            }
2898        }
2899    }
2900}
2901
2902struct LiveBlock
2903{
2904    size_t start;
2905    size_t end;
2906    size_t vidx;
2907   
2908    bool operator==(const LiveBlock& b) const
2909    { return start==b.start && end==b.end && vidx==b.vidx; }
2910   
2911    bool operator<(const LiveBlock& b) const
2912    { return start<b.start || (start==b.start &&
2913            (end<b.end || (end==b.end && vidx<b.vidx))); }
2914};
2915
2916typedef AsmRegAllocator::LinearDep LinearDep;
2917typedef AsmRegAllocator::EqualToDep EqualToDep;
2918typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2919typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2920
2921static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2922            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2923            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2924            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2925            size_t regTypesNum, const cxuint* regRanges)
2926{
2927    // add linear deps
2928    cxuint count = ldeps[0];
2929    cxuint pos = 1;
2930    cxbyte rvuAdded = 0;
2931    for (cxuint i = 0; i < count; i++)
2932    {
2933        cxuint ccount = ldeps[pos++];
2934        std::vector<size_t> vidxes;
2935        cxuint regType = UINT_MAX;
2936        cxbyte align = rvus[ldeps[pos]].align;
2937        for (cxuint j = 0; j < ccount; j++)
2938        {
2939            rvuAdded |= 1U<<ldeps[pos];
2940            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2941            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2942            {
2943                AsmSingleVReg svreg = {rvu.regVar, k};
2944                auto sit = ssaIdIdxMap.find(svreg);
2945                if (regType==UINT_MAX)
2946                    regType = getRegType(regTypesNum, regRanges, svreg);
2947                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2948                const std::vector<size_t>& ssaIdIndices =
2949                            vregIndexMap.find(svreg)->second;
2950                // push variable index
2951                vidxes.push_back(ssaIdIndices[sit->second]);
2952            }
2953        }
2954        ldepsOut[regType][vidxes[0]].align = align;
2955        for (size_t k = 1; k < vidxes.size(); k++)
2956        {
2957            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2958            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2959        }
2960    }
2961    // add single arg linear dependencies
2962    for (cxuint i = 0; i < rvusNum; i++)
2963        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2964        {
2965            const AsmRegVarUsage& rvu = rvus[i];
2966            std::vector<size_t> vidxes;
2967            cxuint regType = UINT_MAX;
2968            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2969            {
2970                AsmSingleVReg svreg = {rvu.regVar, k};
2971                auto sit = ssaIdIdxMap.find(svreg);
2972                if (regType==UINT_MAX)
2973                    regType = getRegType(regTypesNum, regRanges, svreg);
2974                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2975                const std::vector<size_t>& ssaIdIndices =
2976                            vregIndexMap.find(svreg)->second;
2977                // push variable index
2978                vidxes.push_back(ssaIdIndices[sit->second]);
2979            }
2980            for (size_t j = 1; j < vidxes.size(); j++)
2981            {
2982                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2983                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2984            }
2985        }
2986       
2987    /* equalTo dependencies */
2988    count = edeps[0];
2989    pos = 1;
2990    for (cxuint i = 0; i < count; i++)
2991    {
2992        cxuint ccount = edeps[pos++];
2993        std::vector<size_t> vidxes;
2994        cxuint regType = UINT_MAX;
2995        for (cxuint j = 0; j < ccount; j++)
2996        {
2997            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2998            // only one register should be set for equalTo depencencies
2999            // other registers in range will be resolved by linear dependencies
3000            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
3001            auto sit = ssaIdIdxMap.find(svreg);
3002            if (regType==UINT_MAX)
3003                regType = getRegType(regTypesNum, regRanges, svreg);
3004            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3005            const std::vector<size_t>& ssaIdIndices =
3006                        vregIndexMap.find(svreg)->second;
3007            // push variable index
3008            vidxes.push_back(ssaIdIndices[sit->second]);
3009        }
3010        for (size_t j = 1; j < vidxes.size(); j++)
3011        {
3012            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
3013            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
3014        }
3015    }
3016}
3017
3018typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
3019
3020struct EqualStackEntry
3021{
3022    EqualToDepMapCIter etoDepIt;
3023    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
3024};
3025
3026void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
3027{
3028    // construct var index maps
3029    size_t graphVregsCounts[MAX_REGTYPES_NUM];
3030    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
3031    cxuint regRanges[MAX_REGTYPES_NUM*2];
3032    size_t regTypesNum;
3033    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
3034   
3035    for (const CodeBlock& cblock: codeBlocks)
3036        for (const auto& entry: cblock.ssaInfoMap)
3037        {
3038            const SSAInfo& sinfo = entry.second;
3039            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
3040            VarIndexMap& vregIndices = vregIndexMaps[regType];
3041            size_t& graphVregsCount = graphVregsCounts[regType];
3042            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
3043            size_t ssaIdCount = 0;
3044            if (sinfo.readBeforeWrite)
3045                ssaIdCount = sinfo.ssaIdBefore+1;
3046            if (sinfo.ssaIdChange!=0)
3047            {
3048                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
3049                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
3050            }
3051            if (ssaIdIndices.size() < ssaIdCount)
3052                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
3053           
3054            if (sinfo.readBeforeWrite)
3055                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
3056            if (sinfo.ssaIdChange!=0)
3057            {
3058                // fill up ssaIdIndices (with graph Ids)
3059                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
3060                for (size_t ssaId = sinfo.ssaId+1;
3061                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
3062                    ssaIdIndices[ssaId] = graphVregsCount++;
3063                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
3064            }
3065        }
3066   
3067    // construct vreg liveness
3068    std::deque<FlowStackEntry> flowStack;
3069    std::vector<bool> visited(codeBlocks.size(), false);
3070    // hold last vreg ssaId and position
3071    LastVRegMap lastVRegMap;
3072    // hold start live time position for every code block
3073    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
3074    std::unordered_set<size_t> blockInWay;
3075   
3076    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
3077   
3078    for (size_t i = 0; i < regTypesNum; i++)
3079        livenesses[i].resize(graphVregsCounts[i]);
3080   
3081    size_t curLiveTime = 0;
3082   
3083    while (!flowStack.empty())
3084    {
3085        FlowStackEntry& entry = flowStack.back();
3086        CodeBlock& cblock = codeBlocks[entry.blockIndex];
3087       
3088        if (entry.nextIndex == 0)
3089        {
3090            // process current block
3091            if (!blockInWay.insert(entry.blockIndex).second)
3092            {
3093                // if loop
3094                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
3095                        livenesses, vregIndexMaps, regTypesNum, regRanges);
3096                flowStack.pop_back();
3097                continue;
3098            }
3099           
3100            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
3101            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
3102                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
3103           
3104            for (const auto& sentry: cblock.ssaInfoMap)
3105            {
3106                const SSAInfo& sinfo = sentry.second;
3107                // update
3108                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
3109                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
3110                FlowStackCIter flit = flowStack.end();
3111                --flit; // to last position
3112                auto res = lastVRegMap.insert({ sentry.first, 
3113                            { lastSSAId, { flit } } });
3114                if (!res.second) // if not first seen, just update
3115                {
3116                    // update last
3117                    res.first->second.ssaId = lastSSAId;
3118                    res.first->second.blockChain.push_back(flit);
3119                }
3120            }
3121           
3122            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
3123            if (!visited[entry.blockIndex])
3124            {
3125                visited[entry.blockIndex] = true;
3126                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
3127                AsmRegVarUsage instrRVUs[8];
3128                cxuint instrRVUsCount = 0;
3129               
3130                size_t oldOffset = cblock.usagePos.readOffset;
3131                std::vector<AsmSingleVReg> readSVRegs;
3132                std::vector<AsmSingleVReg> writtenSVRegs;
3133               
3134                usageHandler.setReadPos(cblock.usagePos);
3135                // register in liveness
3136                while (true)
3137                {
3138                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
3139                    size_t liveTimeNext = curBlockLiveEnd;
3140                    if (usageHandler.hasNext())
3141                    {
3142                        rvu = usageHandler.nextUsage();
3143                        if (rvu.offset >= cblock.end)
3144                            break;
3145                        if (!rvu.useRegMode)
3146                            instrRVUs[instrRVUsCount++] = rvu;
3147                        liveTimeNext = std::min(rvu.offset, cblock.end) -
3148                                cblock.start + curLiveTime;
3149                    }
3150                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
3151                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
3152                    {
3153                        // apply to liveness
3154                        for (AsmSingleVReg svreg: readSVRegs)
3155                        {
3156                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
3157                                    cblock.ssaInfoMap.find(svreg)->second,
3158                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
3159                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
3160                                lv.newRegion(curLiveTime); // begin region from this block
3161                            lv.expand(liveTime);
3162                        }
3163                        for (AsmSingleVReg svreg: writtenSVRegs)
3164                        {
3165                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
3166                            ssaIdIdx++;
3167                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
3168                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
3169                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
3170                            if (liveTimeNext != curBlockLiveEnd)
3171                                // because live after this instr
3172                                lv.newRegion(liveTimeNext);
3173                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
3174                        }
3175                        // get linear deps and equal to
3176                        cxbyte lDeps[16];
3177                        cxbyte eDeps[16];
3178                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
3179                                        lDeps, eDeps);
3180                       
3181                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
3182                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
3183                                regTypesNum, regRanges);
3184                       
3185                        readSVRegs.clear();
3186                        writtenSVRegs.clear();
3187                        if (!usageHandler.hasNext())
3188                            break; // end
3189                        oldOffset = rvu.offset;
3190                        instrRVUsCount = 0;
3191                    }
3192                    if (rvu.offset >= cblock.end)
3193                        break;
3194                   
3195                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
3196                    {
3197                        // per register/singlvreg
3198                        AsmSingleVReg svreg{ rvu.regVar, rindex };
3199                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
3200                            writtenSVRegs.push_back(svreg);
3201                        else // read or treat as reading // expand previous region
3202                            readSVRegs.push_back(svreg);
3203                    }
3204                }
3205                curLiveTime += cblock.end-cblock.start;
3206            }
3207            else
3208            {
3209                // back, already visited
3210                flowStack.pop_back();
3211                continue;
3212            }
3213        }
3214        if (entry.nextIndex < cblock.nexts.size())
3215        {
3216            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
3217            entry.nextIndex++;
3218        }
3219        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
3220        {
3221            flowStack.push_back({ entry.blockIndex+1, 0 });
3222            entry.nextIndex++;
3223        }
3224        else // back
3225        {
3226            // revert lastSSAIdMap
3227            blockInWay.erase(entry.blockIndex);
3228            flowStack.pop_back();
3229            if (!flowStack.empty())
3230            {
3231                for (const auto& sentry: cblock.ssaInfoMap)
3232                {
3233                    auto lvrit = lastVRegMap.find(sentry.first);
3234                    if (lvrit != lastVRegMap.end())
3235                    {
3236                        VRegLastPos& lastPos = lvrit->second;
3237                        lastPos.ssaId = sentry.second.ssaIdBefore;
3238                        lastPos.blockChain.pop_back();
3239                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
3240                            lastVRegMap.erase(lvrit);
3241                    }
3242                }
3243            }
3244        }
3245    }
3246   
3247    /// construct liveBlockMaps
3248    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
3249    for (size_t regType = 0; regType < regTypesNum; regType++)
3250    {
3251        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3252        std::vector<Liveness>& liveness = livenesses[regType];
3253        for (size_t li = 0; li < liveness.size(); li++)
3254        {
3255            Liveness& lv = liveness[li];
3256            for (const std::pair<size_t, size_t>& blk: lv.l)
3257                if (blk.first != blk.second)
3258                    liveBlockMap.insert({ blk.first, blk.second, li });
3259            lv.clear();
3260        }
3261        liveness.clear();
3262    }
3263   
3264    // create interference graphs
3265    for (size_t regType = 0; regType < regTypesNum; regType++)
3266    {
3267        InterGraph& interGraph = interGraphs[regType];
3268        interGraph.resize(graphVregsCounts[regType]);
3269        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3270       
3271        auto lit = liveBlockMap.begin();
3272        size_t rangeStart = 0;
3273        if (lit != liveBlockMap.end())
3274            rangeStart = lit->start;
3275        while (lit != liveBlockMap.end())
3276        {
3277            const size_t blkStart = lit->start;
3278            const size_t blkEnd = lit->end;
3279            size_t rangeEnd = blkEnd;
3280            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
3281            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
3282            // collect from this range, variable indices
3283            std::set<size_t> varIndices;
3284            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
3285                varIndices.insert(lit2->vidx);
3286            // push to intergraph as full subgGraph
3287            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
3288                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
3289                    if (vit != vit2)
3290                        interGraph[*vit].insert(*vit2);
3291            // go to next live blocks
3292            rangeStart = rangeEnd;
3293            for (; lit != liveBlockMap.end(); ++lit)
3294                if (lit->start != blkStart && lit->end != blkEnd)
3295                    break;
3296            if (lit == liveBlockMap.end())
3297                break; //
3298            rangeStart = std::max(rangeStart, lit->start);
3299        }
3300    }
3301   
3302    /*
3303     * resolve equalSets
3304     */
3305    for (cxuint regType = 0; regType < regTypesNum; regType++)
3306    {
3307        InterGraph& interGraph = interGraphs[regType];
3308        const size_t nodesNum = interGraph.size();
3309        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
3310        std::vector<bool> visited(nodesNum, false);
3311        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3312       
3313        for (size_t v = 0; v < nodesNum;)
3314        {
3315            auto it = etoDepMap.find(v);
3316            if (it == etoDepMap.end())
3317            {
3318                // is not regvar in equalTo dependencies
3319                v++;
3320                continue;
3321            }
3322           
3323            std::stack<EqualStackEntry> etoStack;
3324            etoStack.push(EqualStackEntry{ it, 0 });
3325           
3326            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3327            const size_t equalSetIndex = equalSetList.size();
3328            equalSetList.push_back(std::vector<size_t>());
3329            std::vector<size_t>& equalSet = equalSetList.back();
3330           
3331            // traverse by this
3332            while (!etoStack.empty())
3333            {
3334                EqualStackEntry& entry = etoStack.top();
3335                size_t vidx = entry.etoDepIt->first; // node index, vreg index
3336                const EqualToDep& eToDep = entry.etoDepIt->second;
3337                if (entry.nextIdx == 0)
3338                {
3339                    if (!visited[vidx])
3340                    {
3341                        // push to this equalSet
3342                        equalSetMap.insert({ vidx, equalSetIndex });
3343                        equalSet.push_back(vidx);
3344                    }
3345                    else
3346                    {
3347                        // already visited
3348                        etoStack.pop();
3349                        continue;
3350                    }
3351                }
3352               
3353                if (entry.nextIdx < eToDep.nextVidxes.size())
3354                {
3355                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
3356                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3357                    entry.nextIdx++;
3358                }
3359                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
3360                {
3361                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
3362                                entry.nextIdx - eToDep.nextVidxes.size()]);
3363                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3364                    entry.nextIdx++;
3365                }
3366                else
3367                    etoStack.pop();
3368            }
3369           
3370            // to first already added node (var)
3371            while (v < nodesNum && !visited[v]) v++;
3372        }
3373    }
3374}
3375
3376typedef AsmRegAllocator::InterGraph InterGraph;
3377
3378struct CLRX_INTERNAL SDOLDOCompare
3379{
3380    const InterGraph& interGraph;
3381    const Array<size_t>& sdoCounts;
3382   
3383    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
3384        : interGraph(_interGraph), sdoCounts(_sdoCounts)
3385    { }
3386   
3387    bool operator()(size_t a, size_t b) const
3388    {
3389        if (sdoCounts[a] > sdoCounts[b])
3390            return true;
3391        return interGraph[a].size() > interGraph[b].size();
3392    }
3393};
3394
3395/* algorithm to allocate regranges:
3396 * from smallest regranges to greatest regranges:
3397 *   choosing free register: from smallest free regranges
3398 *      to greatest regranges:
3399 *         in this same regrange:
3400 *               try to find free regs in regranges
3401 *               try to link free ends of two distinct regranges
3402 */
3403
3404void AsmRegAllocator::colorInterferenceGraph()
3405{
3406    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
3407                    assembler.deviceType);
3408   
3409    for (size_t regType = 0; regType < regTypesNum; regType++)
3410    {
3411        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
3412        InterGraph& interGraph = interGraphs[regType];
3413        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3414        Array<cxuint>& gcMap = graphColorMaps[regType];
3415        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3416        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3417       
3418        const size_t nodesNum = interGraph.size();
3419        gcMap.resize(nodesNum);
3420        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
3421        Array<size_t> sdoCounts(nodesNum);
3422        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
3423       
3424        SDOLDOCompare compare(interGraph, sdoCounts);
3425        std::set<size_t, SDOLDOCompare> nodeSet(compare);
3426        for (size_t i = 0; i < nodesNum; i++)
3427            nodeSet.insert(i);
3428       
3429        cxuint colorsNum = 0;
3430        // firstly, allocate real registers
3431        for (const auto& entry: vregIndexMap)
3432            if (entry.first.regVar == nullptr)
3433                gcMap[entry.second[0]] = colorsNum++;
3434       
3435        for (size_t colored = 0; colored < nodesNum; colored++)
3436        {
3437            size_t node = *nodeSet.begin();
3438            if (gcMap[node] != UINT_MAX)
3439                continue; // already colored
3440            size_t color = 0;
3441            std::vector<size_t> equalNodes;
3442            equalNodes.push_back(node); // only one node, if equalSet not found
3443            auto equalSetMapIt = equalSetMap.find(node);
3444            if (equalSetMapIt != equalSetMap.end())
3445                // found, get equal set from equalSetList
3446                equalNodes = equalSetList[equalSetMapIt->second];
3447           
3448            for (color = 0; color <= colorsNum; color++)
3449            {
3450                // find first usable color
3451                bool thisSame = false;
3452                for (size_t nb: interGraph[node])
3453                    if (gcMap[nb] == color)
3454                    {
3455                        thisSame = true;
3456                        break;
3457                    }
3458                if (!thisSame)
3459                    break;
3460            }
3461            if (color==colorsNum) // add new color if needed
3462            {
3463                if (colorsNum >= maxColorsNum)
3464                    throw AsmException("Too many register is needed");
3465                colorsNum++;
3466            }
3467           
3468            for (size_t nextNode: equalNodes)
3469                gcMap[nextNode] = color;
3470            // update SDO for node
3471            bool colorExists = false;
3472            for (size_t node: equalNodes)
3473            {
3474                for (size_t nb: interGraph[node])
3475                    if (gcMap[nb] == color)
3476                    {
3477                        colorExists = true;
3478                        break;
3479                    }
3480                if (!colorExists)
3481                    sdoCounts[node]++;
3482            }
3483            // update SDO for neighbors
3484            for (size_t node: equalNodes)
3485                for (size_t nb: interGraph[node])
3486                {
3487                    colorExists = false;
3488                    for (size_t nb2: interGraph[nb])
3489                        if (gcMap[nb2] == color)
3490                        {
3491                            colorExists = true;
3492                            break;
3493                        }
3494                    if (!colorExists)
3495                    {
3496                        if (gcMap[nb] == UINT_MAX)
3497                            nodeSet.erase(nb);  // before update we erase from nodeSet
3498                        sdoCounts[nb]++;
3499                        if (gcMap[nb] == UINT_MAX)
3500                            nodeSet.insert(nb); // after update, insert again
3501                    }
3502                }
3503           
3504            for (size_t nextNode: equalNodes)
3505                gcMap[nextNode] = color;
3506        }
3507    }
3508}
3509
3510void AsmRegAllocator::allocateRegisters(cxuint sectionId)
3511{
3512    // before any operation, clear all
3513    codeBlocks.clear();
3514    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
3515    {
3516        vregIndexMaps[i].clear();
3517        interGraphs[i].clear();
3518        linearDepMaps[i].clear();
3519        equalToDepMaps[i].clear();
3520        graphColorMaps[i].clear();
3521        equalSetMaps[i].clear();
3522        equalSetLists[i].clear();
3523    }
3524    ssaReplacesMap.clear();
3525    cxuint maxRegs[MAX_REGTYPES_NUM];
3526    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
3527   
3528    // set up
3529    const AsmSection& section = assembler.sections[sectionId];
3530    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
3531    createSSAData(*section.usageHandler);
3532    applySSAReplaces();
3533    createInterferenceGraph(*section.usageHandler);
3534    colorInterferenceGraph();
3535}
Note: See TracBrowser for help on using the repository browser.