source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3932

Last change on this file since 3932 was 3932, checked in by matszpk, 15 months ago

CLRadeonExtender: AsmRegAlloc?: Remove obsolete comments and TODOs.

File size: 125.2 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
560// map of last SSAId for routine, key - varid, value - last SSA ids
561class CLRX_INTERNAL LastSSAIdMap: public
562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
563{
564public:
565    LastSSAIdMap()
566    { }
567   
568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
583    size_t weight() const
584    { return size(); }
585};
586
587typedef LastSSAIdMap RBWSSAIdMap;
588typedef std::unordered_map<size_t, VectorSet<size_t> > SubrLoopsMap;
589
590struct CLRX_INTERNAL RetSSAEntry
591{
592    std::vector<size_t> routines;
593    VectorSet<size_t> ssaIds;
594    size_t prevSSAId; // for curSSAId
595};
596
597typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
598
599struct CLRX_INTERNAL LoopSSAIdMap
600{
601    LastSSAIdMap ssaIdMap;
602    bool passed;
603};
604
605struct CLRX_INTERNAL RoutineData
606{
607    // rbwSSAIdMap - read before write SSAId's map
608    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
609    LastSSAIdMap curSSAIdMap;
610    LastSSAIdMap lastSSAIdMap;
611    // key - loop block, value - last ssaId map for loop end
612    std::unordered_map<size_t, LoopSSAIdMap> loopEnds;
613    bool notFirstReturn;
614    size_t weight_;
615   
616    RoutineData() : notFirstReturn(false), weight_(0)
617    { }
618   
619    void calculateWeight()
620    {
621        weight_ = rbwSSAIdMap.size() + lastSSAIdMap.weight();
622        for (const auto& entry: loopEnds)
623            weight_ += entry.second.ssaIdMap.weight();
624    }
625   
626    size_t weight() const
627    { return weight_; }
628};
629
630struct CLRX_INTERNAL FlowStackEntry
631{
632    size_t blockIndex;
633    size_t nextIndex;
634    bool isCall;
635    RetSSAIdMap prevRetSSAIdSets;
636};
637
638struct CLRX_INTERNAL FlowStackEntry2
639{
640    size_t blockIndex;
641    size_t nextIndex;
642};
643
644
645struct CLRX_INTERNAL CallStackEntry
646{
647    size_t callBlock; // index
648    size_t callNextIndex; // index of call next
649    size_t routineBlock;    // routine block
650};
651
652class ResSecondPointsToCache: public std::vector<bool>
653{
654public:
655    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
656    { }
657   
658    void increase(size_t i)
659    {
660        if ((*this)[i<<1])
661            (*this)[(i<<1)+1] = true;
662        else
663            (*this)[i<<1] = true;
664    }
665   
666    cxuint count(size_t i) const
667    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
668};
669
670typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
671typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
672
673static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
674              size_t origId, size_t destId)
675{
676    auto res = rmap.insert({ vreg, {} });
677    res.first->second.insertValue({ origId, destId });
678}
679
680static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
681            const LastSSAIdMap* stackVarMap,
682            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
683            FlowStackEntry2& entry, const SSAEntry& sentry,
684            RBWSSAIdMap* cacheSecPoints)
685{
686    const SSAInfo& sinfo = sentry.second;
687    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
688   
689    if (res.second && sinfo.readBeforeWrite)
690    {
691        if (cacheSecPoints != nullptr)
692        {
693            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
694            if (!res.second)
695                res.first->second.insertValue(sinfo.ssaIdBefore);
696        }
697       
698        if (stackVarMap != nullptr)
699        {
700           
701            // resolve conflict for this variable ssaId>.
702            // only if in previous block previous SSAID is
703            // read before all writes
704            auto it = stackVarMap->find(sentry.first);
705           
706            if (it != stackVarMap->end())
707            {
708                // found, resolve by set ssaIdLast
709                for (size_t ssaId: it->second)
710                {
711                    if (ssaId > sinfo.ssaIdBefore)
712                    {
713                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
714                            sentry.first.index  << ": " <<
715                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
716                        insertReplace(*replacesMap, sentry.first, ssaId,
717                                    sinfo.ssaIdBefore);
718                    }
719                    else if (ssaId < sinfo.ssaIdBefore)
720                    {
721                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
722                            sentry.first.index  << ": " <<
723                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
724                        insertReplace(*replacesMap, sentry.first,
725                                        sinfo.ssaIdBefore, ssaId);
726                    }
727                    /*else
728                        std::cout << "  noinsertreplace: " <<
729                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
730                }
731            }
732        }
733    }
734}
735
736typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
737
738static void useResSecPointCache(SSAReplacesMap* replacesMap,
739        const LastSSAIdMap* stackVarMap,
740        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
741        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
742        RBWSSAIdMap* destCacheSecPoints)
743{
744    std::cout << "use resSecPointCache for " << nextBlock <<
745            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
746    for (const auto& sentry: *resSecondPoints)
747    {
748        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
749        if (destCacheSecPoints != nullptr && !alreadyRead)
750        {
751            auto res = destCacheSecPoints->insert(sentry);
752            if (!res.second)
753                for (size_t srcSSAId: sentry.second)
754                    res.first->second.insertValue(srcSSAId);
755        }
756       
757        if (stackVarMap != nullptr)
758        {
759            auto it = stackVarMap->find(sentry.first);
760           
761            if (it != stackVarMap->end() && !alreadyRead)
762            {
763                // found, resolve by set ssaIdLast
764                for (size_t ssaId: it->second)
765                {
766                    for (size_t secSSAId: sentry.second)
767                    {
768                        if (ssaId > secSSAId)
769                        {
770                            std::cout << "  insertreplace: " <<
771                                sentry.first.regVar << ":" <<
772                                sentry.first.index  << ": " <<
773                                ssaId << ", " << secSSAId << std::endl;
774                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
775                        }
776                        else if (ssaId < secSSAId)
777                        {
778                            std::cout << "  insertreplace2: " <<
779                                sentry.first.regVar << ":" <<
780                                sentry.first.index  << ": " <<
781                                ssaId << ", " << secSSAId << std::endl;
782                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
783                        }
784                        /*else
785                            std::cout << "  noinsertreplace: " <<
786                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
787                    }
788                }
789            }
790        }
791    }
792}
793
794static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
795                const std::vector<CodeBlock>& codeBlocks,
796                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
797                size_t nextBlock)
798{
799    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
800    //std::stack<CallStackEntry> callStack = prevCallStack;
801    // traverse by graph from next block
802    std::deque<FlowStackEntry2> flowStack;
803    flowStack.push_back({ nextBlock, 0 });
804    std::vector<bool> visited(codeBlocks.size(), false);
805   
806    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
807   
808    RBWSSAIdMap cacheSecPoints;
809   
810    while (!flowStack.empty())
811    {
812        FlowStackEntry2& entry = flowStack.back();
813        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
814       
815        if (entry.nextIndex == 0)
816        {
817            // process current block
818            if (!visited[entry.blockIndex])
819            {
820                visited[entry.blockIndex] = true;
821                std::cout << "  resolv: " << entry.blockIndex << std::endl;
822               
823                const RBWSSAIdMap* resSecondPoints =
824                            resSecondPointsCache.use(entry.blockIndex);
825                if (resSecondPoints == nullptr)
826                    for (auto& sentry: cblock.ssaInfoMap)
827                        handleSSAEntryWhileResolving(nullptr, nullptr,
828                                alreadyReadMap, entry, sentry,
829                                &cacheSecPoints);
830                else // to use cache
831                {
832                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
833                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
834                    flowStack.pop_back();
835                    continue;
836                }
837            }
838            else
839            {
840                // back, already visited
841                std::cout << "resolv already: " << entry.blockIndex << std::endl;
842                flowStack.pop_back();
843                continue;
844            }
845        }
846       
847        /*if (!callStack.empty() &&
848            entry.blockIndex == callStack.top().callBlock &&
849            entry.nextIndex-1 == callStack.top().callNextIndex)
850            callStack.pop(); // just return from call
851        */
852        if (entry.nextIndex < cblock.nexts.size())
853        {
854            /*if (cblock.nexts[entry.nextIndex].isCall)
855                callStack.push({ entry.blockIndex, entry.nextIndex,
856                            cblock.nexts[entry.nextIndex].block });*/
857            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
858            entry.nextIndex++;
859        }
860        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
861                // if have any call then go to next block
862                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
863                 !cblock.haveReturn && !cblock.haveEnd)
864        {
865            // add toResolveMap ssaIds inside called routines
866            for (const auto& next: cblock.nexts)
867                if (next.isCall)
868                {
869                    const RoutineData& rdata = routineMap.find(next.block)->second;
870                    for (const auto& v: rdata.rbwSSAIdMap)
871                        alreadyReadMap.insert({v.first, entry.blockIndex });
872                    for (const auto& v: rdata.lastSSAIdMap)
873                        alreadyReadMap.insert({v.first, entry.blockIndex });
874                }
875           
876            flowStack.push_back({ entry.blockIndex+1, 0 });
877            entry.nextIndex++;
878        }
879        else // back
880        {
881            // remove old to resolve in leaved way to allow collecting next ssaId
882            // before write (can be different due to earlier visit)
883            for (const auto& next: cblock.nexts)
884                if (next.isCall)
885                {
886                    const RoutineData& rdata = routineMap.find(next.block)->second;
887                    for (const auto& v: rdata.rbwSSAIdMap)
888                    {
889                        auto it = alreadyReadMap.find(v.first);
890                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
891                            alreadyReadMap.erase(it);
892                    }
893                    for (const auto& v: rdata.lastSSAIdMap)
894                    {
895                        auto it = alreadyReadMap.find(v.first);
896                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
897                            alreadyReadMap.erase(it);
898                    }
899                }
900           
901            for (const auto& sentry: cblock.ssaInfoMap)
902            {
903                auto it = alreadyReadMap.find(sentry.first);
904                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
905                    // remove old to resolve in leaved way to allow collecting next ssaId
906                    // before write (can be different due to earlier visit)
907                    alreadyReadMap.erase(it);
908            }
909            std::cout << "  popresolv" << std::endl;
910            flowStack.pop_back();
911        }
912    }
913   
914    resSecondPointsCache.put(nextBlock, cacheSecPoints);
915}
916
917static void applyCallToStackVarMap(const CodeBlock& cblock,
918        const std::unordered_map<size_t, RoutineData>& routineMap,
919        LastSSAIdMap& stackVarMap, size_t blockIndex, size_t nextIndex)
920{
921    for (const NextBlock& next: cblock.nexts)
922        if (next.isCall)
923        {
924            const LastSSAIdMap& regVarMap =
925                    routineMap.find(next.block)->second.lastSSAIdMap;
926            for (const auto& sentry: regVarMap)
927                stackVarMap[sentry.first].clear(); // clearing
928        }
929   
930    for (const NextBlock& next: cblock.nexts)
931        if (next.isCall)
932        {
933            std::cout << "  applycall: " << blockIndex << ": " <<
934                    nextIndex << ": " << next.block << std::endl;
935            const LastSSAIdMap& regVarMap =
936                    routineMap.find(next.block)->second.lastSSAIdMap;
937            for (const auto& sentry: regVarMap)
938                for (size_t s: sentry.second)
939                    stackVarMap.insertSSAId(sentry.first, s);
940        }
941}
942
943
944static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
945        const std::unordered_map<size_t, RoutineData>& routineMap,
946        const std::vector<CodeBlock>& codeBlocks,
947        const PrevWaysIndexMap& prevWaysIndexMap,
948        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
949        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
950        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
951        SSAReplacesMap& replacesMap)
952{
953    size_t nextBlock = prevFlowStack.back().blockIndex;
954    auto pfEnd = prevFlowStack.end();
955    --pfEnd;
956    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
957    LastSSAIdMap stackVarMap;
958   
959    size_t pfStartIndex = 0;
960    {
961        auto pfPrev = pfEnd;
962        --pfPrev;
963        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
964        if (it != prevWaysIndexMap.end())
965        {
966            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
967            if (cached!=nullptr)
968            {
969                std::cout << "use pfcached: " << it->second.first << ", " <<
970                        it->second.second << std::endl;
971                stackVarMap = *cached;
972                pfStartIndex = it->second.second+1;
973               
974                // apply missing calls at end of the cached
975                const CodeBlock& cblock = codeBlocks[it->second.first];
976               
977                const FlowStackEntry2& entry = *(prevFlowStack.begin()+pfStartIndex-1);
978                if (entry.nextIndex > cblock.nexts.size())
979                    applyCallToStackVarMap(cblock, routineMap, stackVarMap, -1, -1);
980            }
981        }
982    }
983   
984    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
985    {
986        const FlowStackEntry2& entry = *pfit;
987        std::cout << "  apply: " << entry.blockIndex << std::endl;
988        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
989        for (const auto& sentry: cblock.ssaInfoMap)
990        {
991            const SSAInfo& sinfo = sentry.second;
992            if (sinfo.ssaIdChange != 0)
993                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
994        }
995        if (entry.nextIndex > cblock.nexts.size())
996            applyCallToStackVarMap(cblock, routineMap, stackVarMap,
997                        entry.blockIndex, entry.nextIndex);
998       
999        // put to first point cache
1000        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
1001        {
1002            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
1003            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
1004        }
1005    }
1006   
1007    RBWSSAIdMap cacheSecPoints;
1008    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
1009                cblocksToCache.count(nextBlock)>=2;
1010   
1011    //std::stack<CallStackEntry> callStack = prevCallStack;
1012    // traverse by graph from next block
1013    std::deque<FlowStackEntry2> flowStack;
1014    flowStack.push_back({ nextBlock, 0 });
1015    std::vector<bool> visited(codeBlocks.size(), false);
1016   
1017    // already read in current path
1018    // key - vreg, value - source block where vreg of conflict found
1019    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
1020   
1021    while (!flowStack.empty())
1022    {
1023        FlowStackEntry2& entry = flowStack.back();
1024        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1025       
1026        if (entry.nextIndex == 0)
1027        {
1028            // process current block
1029            if (!visited[entry.blockIndex])
1030            {
1031                visited[entry.blockIndex] = true;
1032                std::cout << "  resolv: " << entry.blockIndex << std::endl;
1033               
1034                const RBWSSAIdMap* resSecondPoints =
1035                        resSecondPointsCache.use(entry.blockIndex);
1036                if (resSecondPoints == nullptr)
1037                    for (auto& sentry: cblock.ssaInfoMap)
1038                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
1039                                alreadyReadMap, entry, sentry,
1040                                toCache ? &cacheSecPoints : nullptr);
1041                else // to use cache
1042                {
1043                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
1044                            resSecondPoints, entry.blockIndex,
1045                            toCache ? &cacheSecPoints : nullptr);
1046                    flowStack.pop_back();
1047                    continue;
1048                }
1049            }
1050            else
1051            {
1052                cblocksToCache.increase(entry.blockIndex);
1053                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1054                            cblocksToCache.count(entry.blockIndex) << std::endl;
1055                // back, already visited
1056                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1057                flowStack.pop_back();
1058                continue;
1059            }
1060        }
1061       
1062        /*if (!callStack.empty() &&
1063            entry.blockIndex == callStack.top().callBlock &&
1064            entry.nextIndex-1 == callStack.top().callNextIndex)
1065            callStack.pop(); // just return from call
1066        */
1067        if (entry.nextIndex < cblock.nexts.size())
1068        {
1069            /*if (cblock.nexts[entry.nextIndex].isCall)
1070                callStack.push({ entry.blockIndex, entry.nextIndex,
1071                            cblock.nexts[entry.nextIndex].block });*/
1072            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1073            entry.nextIndex++;
1074        }
1075        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1076                // if have any call then go to next block
1077                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1078                 !cblock.haveReturn && !cblock.haveEnd)
1079        {
1080            // add toResolveMap ssaIds inside called routines
1081            for (const auto& next: cblock.nexts)
1082                if (next.isCall)
1083                {
1084                    const RoutineData& rdata = routineMap.find(next.block)->second;
1085                    for (const auto& v: rdata.rbwSSAIdMap)
1086                        alreadyReadMap.insert({v.first, entry.blockIndex });
1087                    for (const auto& v: rdata.lastSSAIdMap)
1088                        alreadyReadMap.insert({v.first, entry.blockIndex });
1089                }
1090           
1091            flowStack.push_back({ entry.blockIndex+1, 0 });
1092            entry.nextIndex++;
1093        }
1094        else // back
1095        {
1096            // remove old to resolve in leaved way to allow collecting next ssaId
1097            // before write (can be different due to earlier visit)
1098            for (const auto& next: cblock.nexts)
1099                if (next.isCall)
1100                {
1101                    const RoutineData& rdata = routineMap.find(next.block)->second;
1102                    for (const auto& v: rdata.rbwSSAIdMap)
1103                    {
1104                        auto it = alreadyReadMap.find(v.first);
1105                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1106                            alreadyReadMap.erase(it);
1107                    }
1108                    for (const auto& v: rdata.lastSSAIdMap)
1109                    {
1110                        auto it = alreadyReadMap.find(v.first);
1111                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1112                            alreadyReadMap.erase(it);
1113                    }
1114                }
1115           
1116            for (const auto& sentry: cblock.ssaInfoMap)
1117            {
1118                auto it = alreadyReadMap.find(sentry.first);
1119                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1120                    // remove old to resolve in leaved way to allow collecting next ssaId
1121                    // before write (can be different due to earlier visit)
1122                    alreadyReadMap.erase(it);
1123            }
1124            std::cout << "  popresolv" << std::endl;
1125           
1126            if (cblocksToCache.count(entry.blockIndex)==2 &&
1127                !resSecondPointsCache.hasKey(entry.blockIndex))
1128                // add to cache
1129                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1130                            entry.blockIndex);
1131           
1132            flowStack.pop_back();
1133        }
1134    }
1135   
1136    if (toCache)
1137        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1138}
1139
1140static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1141                size_t routineBlock)
1142{
1143    for (const auto& entry: src)
1144    {
1145        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1146                cxuint(entry.first.index) << ":";
1147        for (size_t v: entry.second)
1148            std::cout << " " << v;
1149        std::cout << std::endl;
1150        // insert if not inserted
1151        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1152        if (res.second)
1153            continue; // added new
1154        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1155        res.first->second.routines.push_back(routineBlock);
1156        // add new ways
1157        for (size_t ssaId: entry.second)
1158            destEntry.insertValue(ssaId);
1159        std::cout << "    :";
1160        for (size_t v: destEntry)
1161            std::cout << " " << v;
1162        std::cout << std::endl;
1163    }
1164}
1165
1166static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1167{
1168    for (const auto& entry: src)
1169    {
1170        std::cout << "  entry: " << entry.first.regVar << ":" <<
1171                cxuint(entry.first.index) << ":";
1172        for (size_t v: entry.second)
1173            std::cout << " " << v;
1174        std::cout << std::endl;
1175        auto res = dest.insert(entry); // find
1176        if (res.second)
1177            continue; // added new
1178        VectorSet<size_t>& destEntry = res.first->second;
1179        // add new ways
1180        for (size_t ssaId: entry.second)
1181            destEntry.insertValue(ssaId);
1182        std::cout << "    :";
1183        for (size_t v: destEntry)
1184            std::cout << " " << v;
1185        std::cout << std::endl;
1186    }
1187}
1188
1189static void joinLastSSAIdMapInt(LastSSAIdMap& dest, const LastSSAIdMap& src,
1190                    const LastSSAIdMap& laterRdataCurSSAIdMap,
1191                    const LastSSAIdMap& laterRdataLastSSAIdMap, bool loop)
1192{
1193    for (const auto& entry: src)
1194    {
1195        auto lsit = laterRdataLastSSAIdMap.find(entry.first);
1196        if (lsit != laterRdataLastSSAIdMap.end())
1197        {
1198            auto csit = laterRdataCurSSAIdMap.find(entry.first);
1199            if (csit != laterRdataCurSSAIdMap.end() && !csit->second.empty())
1200            {
1201                // if found in last ssa ID map,
1202                // but has first value (some way do not change SSAId)
1203                // then pass to add new ssaIds before this point
1204                if (!lsit->second.hasValue(csit->second[0]))
1205                    continue; // otherwise, skip
1206            }
1207        }
1208        std::cout << "  entry: " << entry.first.regVar << ":" <<
1209                cxuint(entry.first.index) << ":";
1210        for (size_t v: entry.second)
1211            std::cout << " " << v;
1212        std::cout << std::endl;
1213        auto res = dest.insert(entry); // find
1214        if (res.second)
1215            continue; // added new
1216        VectorSet<size_t>& destEntry = res.first->second;
1217        // add new ways
1218        for (size_t ssaId: entry.second)
1219            destEntry.insertValue(ssaId);
1220        std::cout << "    :";
1221        for (size_t v: destEntry)
1222            std::cout << " " << v;
1223        std::cout << std::endl;
1224    }
1225    if (!loop) // do not if loop
1226        joinLastSSAIdMap(dest, laterRdataLastSSAIdMap);
1227}
1228
1229static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1230                    const RoutineData& laterRdata, bool loop = false)
1231{
1232    joinLastSSAIdMapInt(dest, src, laterRdata.curSSAIdMap, laterRdata.lastSSAIdMap, loop);
1233}
1234
1235
1236static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1237{
1238    // insert readBeforeWrite only if doesnt exists in destination
1239    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1240   
1241    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1242   
1243    for (const auto& entry: src.lastSSAIdMap)
1244    {
1245        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1246                cxuint(entry.first.index) << ":";
1247        for (size_t v: entry.second)
1248            std::cout << " " << v;
1249        std::cout << std::endl;
1250        auto res = dest.curSSAIdMap.insert(entry); // find
1251        VectorSet<size_t>& destEntry = res.first->second;
1252        if (!res.second)
1253        {
1254            // add new ways
1255            for (size_t ssaId: entry.second)
1256                destEntry.insertValue(ssaId);
1257        }
1258        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1259        if (rbwit != src.rbwSSAIdMap.end() &&
1260            // remove only if not in src lastSSAIdMap
1261            std::find(entry.second.begin(), entry.second.end(),
1262                      rbwit->second) == entry.second.end())
1263            destEntry.eraseValue(rbwit->second);
1264        std::cout << "    :";
1265        for (size_t v: destEntry)
1266            std::cout << " " << v;
1267        std::cout << std::endl;
1268    }
1269}
1270
1271static void reduceSSAIdsForCalls(FlowStackEntry& entry,
1272            const std::vector<CodeBlock>& codeBlocks,
1273            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1274            SSAReplacesMap& ssaReplacesMap)
1275{
1276    if (retSSAIdMap.empty())
1277        return;
1278    LastSSAIdMap rbwSSAIdMap;
1279    std::unordered_set<AsmSingleVReg> reduced;
1280    std::unordered_set<AsmSingleVReg> changed;
1281    const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1282    // collect rbw SSAIds
1283    for (const NextBlock next: cblock.nexts)
1284        if (next.isCall)
1285        {
1286            auto it = routineMap.find(next.block); // must find
1287            for (const auto& rentry: it->second.rbwSSAIdMap)
1288                rbwSSAIdMap.insertSSAId(rentry.first,rentry.second);
1289           
1290        }
1291    for (const NextBlock next: cblock.nexts)
1292        if (next.isCall)
1293        {
1294            auto it = routineMap.find(next.block); // must find
1295            // add changed
1296            for (const auto& lentry: it->second.lastSSAIdMap)
1297                if (rbwSSAIdMap.find(lentry.first) == rbwSSAIdMap.end())
1298                    changed.insert(lentry.first);
1299        }
1300   
1301    // reduce SSAIds
1302    for (const auto& rentry: retSSAIdMap)
1303    {
1304        auto ssaIdsIt = rbwSSAIdMap.find(rentry.first);
1305        if (ssaIdsIt != rbwSSAIdMap.end())
1306        {
1307            const VectorSet<size_t>& ssaIds = ssaIdsIt->second;
1308            const VectorSet<size_t>& rssaIds = rentry.second.ssaIds;
1309            Array<size_t> outSSAIds(ssaIds.size() + rssaIds.size());
1310            std::copy(rssaIds.begin(), rssaIds.end(), outSSAIds.begin());
1311            std::copy(ssaIds.begin(), ssaIds.end(), outSSAIds.begin()+rssaIds.size());
1312           
1313            std::sort(outSSAIds.begin(), outSSAIds.end());
1314            outSSAIds.resize(std::unique(outSSAIds.begin(), outSSAIds.end()) -
1315                        outSSAIds.begin());
1316            size_t minSSAId = outSSAIds.front();
1317            if (outSSAIds.size() >= 2)
1318            {
1319                for (auto sit = outSSAIds.begin()+1; sit != outSSAIds.end(); ++sit)
1320                    insertReplace(ssaReplacesMap, rentry.first, *sit, minSSAId);
1321               
1322                std::cout << "calls retssa ssaid: " << rentry.first.regVar << ":" <<
1323                        rentry.first.index << std::endl;
1324            }
1325           
1326            for (size_t rblock: rentry.second.routines)
1327                routineMap.find(rblock)->second.lastSSAIdMap[rentry.first] =
1328                            VectorSet<size_t>({ minSSAId });
1329            reduced.insert(rentry.first);
1330        }
1331    }
1332    for (const AsmSingleVReg& vreg: reduced)
1333        retSSAIdMap.erase(vreg);
1334    reduced.clear();
1335       
1336    for (const AsmSingleVReg& vreg: changed)
1337    {
1338        auto rit = retSSAIdMap.find(vreg);
1339        if (rit != retSSAIdMap.end())
1340        {
1341            // if modified
1342            // put before removing to revert for other ways after calls
1343            auto res = entry.prevRetSSAIdSets.insert(*rit);
1344            if (res.second)
1345                res.first->second = rit->second;
1346            // just remove, if some change without read before
1347            retSSAIdMap.erase(rit);
1348        }
1349    }
1350}
1351
1352static bool reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1353            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1354            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
1355{
1356    SSAInfo& sinfo = ssaEntry.second;
1357    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1358    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1359    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1360    {
1361        auto& ssaIds = ssaIdsIt->second.ssaIds;
1362       
1363        if (ssaIds.size() >= 2)
1364        {
1365            // reduce to minimal ssaId from all calls
1366            std::sort(ssaIds.begin(), ssaIds.end());
1367            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1368            // insert SSA replaces
1369            size_t minSSAId = ssaIds.front();
1370            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1371                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1372            ssaId = minSSAId+1; // plus one
1373        }
1374        else if (ssaIds.size() == 1)
1375            ssaId = ssaIds.front()+1; // plus one
1376       
1377        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1378                ssaEntry.first.index << ": " << ssaId << std::endl;
1379        // replace smallest ssaId in routineMap lastSSAId entry
1380        // reduce SSAIds replaces
1381        for (size_t rblock: ssaIdsIt->second.routines)
1382            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1383                            VectorSet<size_t>({ ssaId-1 });
1384        // finally remove from container (because obsolete)
1385        retSSAIdMap.erase(ssaIdsIt);
1386        return true;
1387    }
1388    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1389    {
1390        // put before removing to revert for other ways after calls
1391        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1392        if (res.second)
1393            res.first->second = ssaIdsIt->second;
1394        // just remove, if some change without read before
1395        retSSAIdMap.erase(ssaIdsIt);
1396    }
1397    return false;
1398}
1399
1400static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1401                size_t prevSSAId)
1402{
1403    const SSAInfo& sinfo = ssaEntry.second;
1404    bool beforeFirstAccess = true;
1405    // put first SSAId before write
1406    if (sinfo.readBeforeWrite)
1407    {
1408        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1409        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1410            // if already added
1411            beforeFirstAccess = false;
1412    }
1413   
1414    if (sinfo.ssaIdChange != 0)
1415    {
1416        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1417        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1418        // put last SSAId
1419        if (!res.second)
1420        {
1421            beforeFirstAccess = false;
1422            // if not inserted
1423            VectorSet<size_t>& ssaIds = res.first->second;
1424            ssaIds.eraseValue(prevSSAId);
1425            ssaIds.insertValue(sinfo.ssaIdLast);
1426        }
1427        // add readbefore if in previous returns if not added yet
1428        if (rdata.notFirstReturn && beforeFirstAccess)
1429        {
1430            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1431            for (auto& loopEnd: rdata.loopEnds)
1432                loopEnd.second.ssaIdMap.insert({ ssaEntry.first, { prevSSAId } });
1433        }
1434    }
1435    else
1436    {
1437        // insert read ssaid if no change
1438        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1439        if (!res.second)
1440        {
1441            VectorSet<size_t>& ssaIds = res.first->second;
1442            ssaIds.insertValue(prevSSAId);
1443        }
1444    }
1445}
1446
1447static void initializePrevRetSSAIds(const CodeBlock& cblock,
1448            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1449            const RetSSAIdMap& retSSAIdMap, const RoutineData& rdata,
1450            FlowStackEntry& entry)
1451{
1452    for (const auto& v: rdata.lastSSAIdMap)
1453    {
1454        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1455        if (!res.second)
1456            continue; // already added, do not change
1457        auto rfit = retSSAIdMap.find(v.first);
1458        if (rfit != retSSAIdMap.end())
1459            res.first->second = rfit->second;
1460       
1461        auto cbsit = cblock.ssaInfoMap.find(v.first);
1462        auto csit = curSSAIdMap.find(v.first);
1463        res.first->second.prevSSAId = cbsit!=cblock.ssaInfoMap.end() ?
1464                cbsit->second.ssaIdBefore : (csit!=curSSAIdMap.end() ? csit->second : 0);
1465    }
1466}
1467
1468static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1469            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1470{
1471    // revert retSSAIdMap
1472    for (auto v: entry.prevRetSSAIdSets)
1473    {
1474        auto rfit = retSSAIdMap.find(v.first);
1475        if (rdata!=nullptr && rfit != retSSAIdMap.end())
1476        {
1477            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1478            for (size_t ssaId: rfit->second.ssaIds)
1479                ssaIds.eraseValue(ssaId);
1480        }
1481       
1482        if (!v.second.ssaIds.empty())
1483        {
1484            // just add if previously present
1485            if (rfit != retSSAIdMap.end())
1486                rfit->second = v.second;
1487            else
1488                retSSAIdMap.insert(v);
1489        }
1490        else // erase if empty
1491            retSSAIdMap.erase(v.first);
1492       
1493        if (rdata!=nullptr)
1494        {
1495            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1496            for (size_t ssaId: v.second.ssaIds)
1497                ssaIds.insertValue(ssaId);
1498            if (v.second.ssaIds.empty())
1499            {
1500                auto cit = curSSAIdMap.find(v.first);
1501                ssaIds.push_back((cit!=curSSAIdMap.end() ? cit->second : 1)-1);
1502            }
1503           
1504            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1505                    v.first.regVar << ":" << v.first.index << ":";
1506            for (size_t v: ssaIds)
1507                std::cout << " " << v;
1508            std::cout << std::endl;
1509        }
1510        curSSAIdMap[v.first] = v.second.prevSSAId;
1511    }
1512}
1513
1514static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1515            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1516{
1517    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1518    std::cout << " pushentry " << entry.blockIndex << ": " <<
1519                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1520    for (size_t v: ssaIds)
1521        std::cout << " " << v;
1522    std::cout << std::endl;
1523   
1524    // if cblock with some children
1525    if (nextSSAId != curSSAId)
1526        ssaIds.eraseValue(nextSSAId-1);
1527   
1528    // push previous SSAId to lastSSAIdMap (later will be replaced)
1529    ssaIds.insertValue(curSSAId-1);
1530   
1531    std::cout << " popentry " << entry.blockIndex << ": " <<
1532                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1533    for (size_t v: ssaIds)
1534        std::cout << " " << v;
1535    std::cout << std::endl;
1536}
1537
1538static bool tryAddLoopEnd(const FlowStackEntry& entry, size_t routineBlock,
1539                RoutineData& rdata, bool isLoop, bool noMainLoop)
1540{
1541    if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1542    {
1543        // handle loops
1544        std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1545        // add to routine data loopEnds
1546        auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1547        if (loopsit2 != rdata.loopEnds.end())
1548        {
1549            if (!loopsit2->second.passed)
1550                // still in loop join ssaid map
1551                joinLastSSAIdMap(loopsit2->second.ssaIdMap, rdata.curSSAIdMap);
1552        }
1553        else
1554            rdata.loopEnds.insert({ entry.blockIndex, { rdata.curSSAIdMap, false } });
1555        return true;
1556    }
1557    return false;
1558}
1559
1560
1561static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1562        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1563        const std::unordered_set<size_t>& loopBlocks,
1564        const ResSecondPointsToCache& subroutToCache,
1565        SimpleCache<size_t, RoutineData>& subroutinesCache,
1566        const std::unordered_map<size_t, RoutineData>& routineMap, RoutineData& rdata,
1567        size_t routineBlock, bool noMainLoop = false,
1568        const std::vector<bool>& prevFlowStackBlocks = {})
1569{
1570    std::cout << "--------- createRoutineData ----------------\n";
1571    std::vector<bool> visited(codeBlocks.size(), false);
1572   
1573    VectorSet<size_t> activeLoops;
1574    SubrLoopsMap subrLoopsMap;
1575    SubrLoopsMap loopSubrsMap;
1576    std::unordered_map<size_t, RoutineData> subrDataForLoopMap;
1577    std::deque<FlowStackEntry> flowStack;
1578    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1579    if (!prevFlowStackBlocks.empty())
1580        flowStackBlocks = prevFlowStackBlocks;
1581    // last SSA ids map from returns
1582    RetSSAIdMap retSSAIdMap;
1583    flowStack.push_back({ routineBlock, 0 });
1584    flowStackBlocks[routineBlock] = true;
1585   
1586    while (!flowStack.empty())
1587    {
1588        FlowStackEntry& entry = flowStack.back();
1589        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1590       
1591        auto addSubroutine = [&](
1592            std::unordered_map<size_t, LoopSSAIdMap>::const_iterator loopsit2,
1593            bool applyToMainRoutine)
1594        {
1595            if (subroutinesCache.hasKey(entry.blockIndex))
1596            {
1597                // if already put, just applyToMainRoutine if needed
1598                if (applyToMainRoutine &&
1599                    loopBlocks.find(entry.blockIndex) != loopBlocks.end() &&
1600                    loopsit2 != rdata.loopEnds.end())
1601                {
1602                    RoutineData* subRdata = subroutinesCache.use(entry.blockIndex);
1603                    joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1604                                        *subRdata, true);
1605                }
1606                return;
1607            }
1608           
1609            RoutineData subrData;
1610            const bool oldFB = flowStackBlocks[entry.blockIndex];
1611            flowStackBlocks[entry.blockIndex] = !oldFB;
1612            createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1613                subroutinesCache, routineMap, subrData, entry.blockIndex, true,
1614                flowStackBlocks);
1615            RoutineData subrDataCopy;
1616            flowStackBlocks[entry.blockIndex] = oldFB;
1617           
1618            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1619            {   // leave from loop point
1620                std::cout << "   loopfound " << entry.blockIndex << std::endl;
1621                if (loopsit2 != rdata.loopEnds.end())
1622                {
1623                    subrDataCopy = subrData;
1624                    subrDataForLoopMap.insert({ entry.blockIndex, subrDataCopy });
1625                    std::cout << "   loopssaId2Map: " <<
1626                            entry.blockIndex << std::endl;
1627                    joinLastSSAIdMap(subrData.lastSSAIdMap,
1628                            loopsit2->second.ssaIdMap, subrData, true);
1629                    std::cout << "   loopssaIdMap2End: " << std::endl;
1630                    if (applyToMainRoutine)
1631                        joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1632                                        subrDataCopy, true);
1633                }
1634            }
1635           
1636            // apply loop to subroutines
1637            auto it = loopSubrsMap.find(entry.blockIndex);
1638            if (it != loopSubrsMap.end())
1639            {
1640                std::cout << "    found loopsubrsmap: " << entry.blockIndex << ":";
1641                for (size_t subr: it->second)
1642                {
1643                    std::cout << " " << subr;
1644                    RoutineData* subrData2 = subroutinesCache.use(subr);
1645                    if (subrData2 == nullptr)
1646                        continue;
1647                    std::cout << "*";
1648                    joinLastSSAIdMap(subrData2->lastSSAIdMap,
1649                            loopsit2->second.ssaIdMap, subrDataCopy, false);
1650                }
1651                std::cout << "\n";
1652            }
1653            // apply loops to this subroutine
1654            auto it2 = subrLoopsMap.find(entry.blockIndex);
1655            if (it2 != subrLoopsMap.end())
1656            {
1657                std::cout << "    found subrloopsmap: " << entry.blockIndex << ":";
1658                for (auto lit2 = it2->second.rbegin(); lit2 != it2->second.rend(); ++lit2)
1659                {
1660                    size_t loop = *lit2;
1661                    auto loopsit3 = rdata.loopEnds.find(loop);
1662                    if (loopsit3 == rdata.loopEnds.end() ||
1663                        activeLoops.hasValue(loop))
1664                        continue;
1665                    std::cout << " " << loop;
1666                    auto  itx = subrDataForLoopMap.find(loop);
1667                    if (itx != subrDataForLoopMap.end())
1668                        joinLastSSAIdMap(subrData.lastSSAIdMap,
1669                                loopsit3->second.ssaIdMap, itx->second, false);
1670                }
1671                std::cout << "\n";
1672            }
1673           
1674            subrData.calculateWeight();
1675            subroutinesCache.put(entry.blockIndex, subrData);
1676        };
1677       
1678        if (entry.nextIndex == 0)
1679        {
1680            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1681           
1682            if (!prevFlowStackBlocks.empty() && prevFlowStackBlocks[entry.blockIndex])
1683            {
1684                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1685               
1686                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1687                flowStack.pop_back();
1688                continue;
1689            }
1690           
1691            // process current block
1692            //if (/*cachedRdata != nullptr &&*/
1693                //visited[entry.blockIndex] && flowStack.size() > 1)
1694            const RoutineData* cachedRdata = nullptr;
1695           
1696            if (routineBlock != entry.blockIndex)
1697            {
1698                cachedRdata = subroutinesCache.use(entry.blockIndex);
1699                if (cachedRdata == nullptr)
1700                {
1701                    // try in routine map
1702                    auto rit = routineMap.find(entry.blockIndex);
1703                    if (rit != routineMap.end())
1704                        cachedRdata = &rit->second;
1705                }
1706                if (!isLoop && visited[entry.blockIndex] && cachedRdata == nullptr &&
1707                    subroutToCache.count(entry.blockIndex)!=0)
1708                {
1709                    auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1710                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1711                    addSubroutine(loopsit2, false);
1712                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1713                }
1714            }
1715           
1716            if (cachedRdata != nullptr)
1717            {
1718                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1719                std::cout << "procret2: " << entry.blockIndex << std::endl;
1720                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1721                // get not given rdata curSSAIdMap ssaIds but present in cachedRdata
1722                // curSSAIdMap
1723                for (const auto& entry: cachedRdata->curSSAIdMap)
1724                    if (rdata.curSSAIdMap.find(entry.first) == rdata.curSSAIdMap.end())
1725                    {
1726                        auto cit = curSSAIdMap.find(entry.first);
1727                        size_t prevSSAId = (cit!=curSSAIdMap.end() ? cit->second : 1)-1;
1728                        rdata.curSSAIdMap.insert({ entry.first, { prevSSAId } });
1729                       
1730                        if (rdata.notFirstReturn)
1731                        {
1732                            rdata.lastSSAIdMap.insertSSAId(entry.first, prevSSAId);
1733                            for (auto& loopEnd: rdata.loopEnds)
1734                                loopEnd.second.ssaIdMap.
1735                                        insertSSAId(entry.first, prevSSAId);
1736                        }
1737                    }
1738               
1739                // join loopEnds
1740                for (const auto& loopEnd: cachedRdata->loopEnds)
1741                {
1742                    auto res = rdata.loopEnds.insert({ loopEnd.first, LoopSSAIdMap() });
1743                    // true - do not add cached rdata loopend, because it was added
1744                    joinLastSSAIdMapInt(res.first->second.ssaIdMap, rdata.curSSAIdMap,
1745                                cachedRdata->curSSAIdMap, loopEnd.second.ssaIdMap, true);
1746                }
1747                std::cout << "procretend2" << std::endl;
1748                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1749                flowStack.pop_back();
1750                continue;
1751            }
1752            else if (!visited[entry.blockIndex])
1753            {
1754                // set up loops for which subroutine is present
1755                if (subroutToCache.count(entry.blockIndex)!=0 && !activeLoops.empty())
1756                {
1757                    subrLoopsMap.insert({ entry.blockIndex, activeLoops });
1758                    for (size_t loop: activeLoops)
1759                    {
1760                        auto res = loopSubrsMap.insert({ loop, { entry.blockIndex} });
1761                        if (!res.second)
1762                            res.first->second.insertValue(entry.blockIndex);
1763                    }
1764                }
1765               
1766                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1767                    activeLoops.insertValue(entry.blockIndex);
1768                std::cout << "proc: " << entry.blockIndex << std::endl;
1769                visited[entry.blockIndex] = true;
1770               
1771                for (const auto& ssaEntry: cblock.ssaInfoMap)
1772                    if (ssaEntry.first.regVar != nullptr)
1773                    {
1774                        // put data to routine data
1775                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1776                       
1777                        if (ssaEntry.second.ssaIdChange!=0)
1778                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1779                    }
1780            }
1781            else
1782            {
1783                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1784                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1785                flowStack.pop_back();
1786                continue;
1787            }
1788        }
1789       
1790        // join and skip calls
1791        for (; entry.nextIndex < cblock.nexts.size() &&
1792                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1793            joinRoutineData(rdata, routineMap.find(
1794                            cblock.nexts[entry.nextIndex].block)->second);
1795       
1796        if (entry.nextIndex < cblock.nexts.size())
1797        {
1798            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
1799            flowStack.push_back({ nextBlock, 0 });
1800            // negate - if true (already in flowstack, then popping keep this state)
1801            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1802            entry.nextIndex++;
1803        }
1804        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1805                // if have any call then go to next block
1806                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1807                 !cblock.haveReturn && !cblock.haveEnd)
1808        {
1809            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1810            {
1811                for (const NextBlock& next: cblock.nexts)
1812                    if (next.isCall)
1813                    {
1814                        //std::cout << "joincall:"<< next.block << std::endl;
1815                        auto it = routineMap.find(next.block); // must find
1816                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1817                                    it->second, entry);
1818                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1819                    }
1820            }
1821            const size_t nextBlock = entry.blockIndex+1;
1822            flowStack.push_back({ nextBlock, 0 });
1823            // negate - if true (already in flowstack, then popping keep this state)
1824            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1825            entry.nextIndex++;
1826        }
1827        else
1828        {
1829            std::cout << "popstart: " << entry.blockIndex << std::endl;
1830            if (cblock.haveReturn)
1831            {
1832                std::cout << "procret: " << entry.blockIndex << std::endl;
1833                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1834                std::cout << "procretend" << std::endl;
1835                rdata.notFirstReturn = true;
1836            }
1837           
1838            // revert retSSAIdMap
1839            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
1840            //
1841           
1842            for (const auto& ssaEntry: cblock.ssaInfoMap)
1843            {
1844                if (ssaEntry.first.regVar == nullptr)
1845                    continue;
1846                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1847                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1848                    ssaEntry.second.ssaIdLast+1 : curSSAId;
1849                curSSAIdMap[ssaEntry.first] = curSSAId;
1850               
1851                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1852                            ":" << ssaEntry.first.index << ": " <<
1853                            nextSSAId << ", " << curSSAId << std::endl;
1854               
1855                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1856            }
1857           
1858            activeLoops.eraseValue(entry.blockIndex);
1859           
1860            auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1861            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1862            {
1863                if (loopsit2 != rdata.loopEnds.end())
1864                {
1865                    std::cout << "   mark loopblocks passed: " <<
1866                                entry.blockIndex << std::endl;
1867                    // mark that loop has passed fully
1868                    loopsit2->second.passed = true;
1869                }
1870                else
1871                    std::cout << "   loopblocks nopassed: " <<
1872                                entry.blockIndex << std::endl;
1873            }
1874           
1875            if ((!noMainLoop || flowStack.size() > 1) &&
1876                subroutToCache.count(entry.blockIndex)!=0)
1877            { //put to cache
1878                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
1879                addSubroutine(loopsit2, true);
1880            }
1881           
1882            flowStackBlocks[entry.blockIndex] = false;
1883            std::cout << "pop: " << entry.blockIndex << std::endl;
1884            flowStack.pop_back();
1885        }
1886    }
1887    std::cout << "--------- createRoutineData end ------------\n";
1888}
1889
1890
1891void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1892{
1893    if (codeBlocks.empty())
1894        return;
1895    usageHandler.rewind();
1896    auto cbit = codeBlocks.begin();
1897    AsmRegVarUsage rvu;
1898    if (!usageHandler.hasNext())
1899        return; // do nothing if no regusages
1900    rvu = usageHandler.nextUsage();
1901   
1902    cxuint regRanges[MAX_REGTYPES_NUM*2];
1903    cxuint realRegsCount[MAX_REGTYPES_NUM];
1904    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
1905    size_t regTypesNum;
1906    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1907   
1908    while (true)
1909    {
1910        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
1911        {
1912            cbit->usagePos = usageHandler.getReadPos();
1913            ++cbit;
1914        }
1915        if (cbit == codeBlocks.end())
1916            break;
1917        // skip rvu's before codeblock
1918        while (rvu.offset < cbit->start && usageHandler.hasNext())
1919            rvu = usageHandler.nextUsage();
1920        if (rvu.offset < cbit->start)
1921            break;
1922       
1923        cbit->usagePos = usageHandler.getReadPos();
1924        while (rvu.offset < cbit->end)
1925        {
1926            // process rvu
1927            // only if regVar
1928            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1929            {
1930                auto res = cbit->ssaInfoMap.insert(
1931                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
1932               
1933                SSAInfo& sinfo = res.first->second;
1934                if (res.second)
1935                    sinfo.firstPos = rvu.offset;
1936                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
1937                    // if first write RVU instead read RVU
1938                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
1939                    sinfo.readBeforeWrite = true;
1940                /* change SSA id only for write-only regvars -
1941                 *   read-write place can not have two different variables */
1942                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
1943                    sinfo.ssaIdChange++;
1944                if (rvu.regVar==nullptr)
1945                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
1946                            sinfo.ssaId = sinfo.ssaIdLast = 0;
1947            }
1948            // get next rvusage
1949            if (!usageHandler.hasNext())
1950                break;
1951            rvu = usageHandler.nextUsage();
1952        }
1953        ++cbit;
1954    }
1955   
1956    size_t rbwCount = 0;
1957    size_t wrCount = 0;
1958   
1959    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
1960   
1961    std::deque<CallStackEntry> callStack;
1962    std::deque<FlowStackEntry> flowStack;
1963    // total SSA count
1964    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
1965    // last SSA ids map from returns
1966    RetSSAIdMap retSSAIdMap;
1967    // last SSA ids in current way in code flow
1968    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
1969    // routine map - routine datas map, value - last SSA ids map
1970    std::unordered_map<size_t, RoutineData> routineMap;
1971    // key - current res first key, value - previous first key and its flowStack pos
1972    PrevWaysIndexMap prevWaysIndexMap;
1973    // to track ways last block indices pair: block index, flowStackPos)
1974    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
1975    std::vector<bool> isRoutineGen(codeBlocks.size(), false);
1976   
1977    std::vector<bool> waysToCache(codeBlocks.size(), false);
1978    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1979    // subroutToCache - true if given block begin subroutine to cache
1980    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
1981    std::vector<bool> visited(codeBlocks.size(), false);
1982    flowStack.push_back({ 0, 0 });
1983    flowStackBlocks[0] = true;
1984    std::unordered_set<size_t> loopBlocks;
1985   
1986    while (!flowStack.empty())
1987    {
1988        FlowStackEntry& entry = flowStack.back();
1989        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1990       
1991        if (entry.nextIndex == 0)
1992        {
1993            // process current block
1994            if (!visited[entry.blockIndex])
1995            {
1996                std::cout << "proc: " << entry.blockIndex << std::endl;
1997                visited[entry.blockIndex] = true;
1998               
1999                for (auto& ssaEntry: cblock.ssaInfoMap)
2000                {
2001                    SSAInfo& sinfo = ssaEntry.second;
2002                    if (ssaEntry.first.regVar==nullptr)
2003                    {
2004                        // TODO - pass registers through SSA marking and resolving
2005                        sinfo.ssaIdChange = 0; // zeroing SSA changes
2006                        continue; // no change for registers
2007                    }
2008                   
2009                    bool reducedSSAId = reduceSSAIds(curSSAIdMap, retSSAIdMap,
2010                                routineMap, ssaReplacesMap, entry, ssaEntry);
2011                   
2012                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
2013                   
2014                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
2015                    if (totalSSACount == 0)
2016                    {
2017                        // first read before write at all, need change totalcount, ssaId
2018                        ssaId++;
2019                        totalSSACount++;
2020                    }
2021                   
2022                    sinfo.ssaId = totalSSACount;
2023                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
2024                    sinfo.ssaIdBefore = ssaId-1;
2025                   
2026                    totalSSACount += sinfo.ssaIdChange;
2027                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
2028                    //totalSSACount = std::max(totalSSACount, ssaId);
2029                    if (!reducedSSAId || sinfo.ssaIdChange!=0)
2030                        ssaId = totalSSACount;
2031                   
2032                    // count read before writes (for cache weight)
2033                    if (sinfo.readBeforeWrite)
2034                        rbwCount++;
2035                    if (sinfo.ssaIdChange!=0)
2036                        wrCount++;
2037                }
2038            }
2039            else
2040            {
2041                // handle caching for res second point
2042                cblocksToCache.increase(entry.blockIndex);
2043                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
2044                            cblocksToCache.count(entry.blockIndex) << std::endl;
2045                // back, already visited
2046                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
2047                flowStack.pop_back();
2048               
2049                size_t curWayBIndex = flowStack.back().blockIndex;
2050                if (lastCommonCacheWayPoint.first != SIZE_MAX)
2051                {
2052                    // mark point of way to cache (res first point)
2053                    waysToCache[lastCommonCacheWayPoint.first] = true;
2054                    std::cout << "mark to pfcache " <<
2055                            lastCommonCacheWayPoint.first << ", " <<
2056                            curWayBIndex << std::endl;
2057                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
2058                }
2059                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
2060                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
2061                continue;
2062            }
2063        }
2064       
2065        if (!callStack.empty() &&
2066            entry.blockIndex == callStack.back().callBlock &&
2067            entry.nextIndex-1 == callStack.back().callNextIndex)
2068        {
2069            std::cout << " ret: " << entry.blockIndex << std::endl;
2070            RoutineData& prevRdata =
2071                    routineMap.find(callStack.back().routineBlock)->second;
2072            if (!isRoutineGen[callStack.back().routineBlock])
2073            {
2074                //RoutineData myRoutineData;
2075                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks,
2076                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
2077                            callStack.back().routineBlock);
2078                //prevRdata.compare(myRoutineData);
2079                isRoutineGen[callStack.back().routineBlock] = true;
2080            }
2081           
2082           
2083           
2084            callStack.pop_back(); // just return from call
2085            if (!callStack.empty())
2086                // put to parent routine
2087                joinRoutineData(routineMap.find(callStack.back().routineBlock)->second,
2088                                    prevRdata);
2089        }
2090       
2091        if (entry.nextIndex < cblock.nexts.size())
2092        {
2093            bool isCall = false;
2094            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
2095            if (cblock.nexts[entry.nextIndex].isCall)
2096            {
2097                std::cout << " call: " << entry.blockIndex << std::endl;
2098                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
2099                routineMap.insert({ nextBlock, { } });
2100                isCall = true;
2101            }
2102           
2103            flowStack.push_back({ nextBlock, 0, isCall });
2104            if (flowStackBlocks[nextBlock])
2105            {
2106                loopBlocks.insert(nextBlock);
2107                flowStackBlocks[nextBlock] = false; // keep to inserted in popping
2108            }
2109            else
2110                flowStackBlocks[nextBlock] = true;
2111            entry.nextIndex++;
2112        }
2113        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2114                // if have any call then go to next block
2115                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2116                 !cblock.haveReturn && !cblock.haveEnd)
2117        {
2118            if (entry.nextIndex!=0) // if back from calls (just return from calls)
2119            {
2120                reduceSSAIdsForCalls(entry, codeBlocks, retSSAIdMap, routineMap,
2121                                     ssaReplacesMap);
2122                //
2123                for (const NextBlock& next: cblock.nexts)
2124                    if (next.isCall)
2125                    {
2126                        //std::cout << "joincall:"<< next.block << std::endl;
2127                        auto it = routineMap.find(next.block); // must find
2128                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
2129                                    it->second, entry);
2130                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
2131                    }
2132            }
2133            flowStack.push_back({ entry.blockIndex+1, 0, false });
2134            if (flowStackBlocks[entry.blockIndex+1])
2135            {
2136                loopBlocks.insert(entry.blockIndex+1);
2137                 // keep to inserted in popping
2138                flowStackBlocks[entry.blockIndex+1] = false;
2139            }
2140            else
2141                flowStackBlocks[entry.blockIndex+1] = true;
2142            entry.nextIndex++;
2143        }
2144        else // back
2145        {
2146            RoutineData* rdata = nullptr;
2147            if (!callStack.empty())
2148                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
2149           
2150            // revert retSSAIdMap
2151            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
2152            //
2153           
2154            for (const auto& ssaEntry: cblock.ssaInfoMap)
2155            {
2156                if (ssaEntry.first.regVar == nullptr)
2157                    continue;
2158               
2159                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
2160                const size_t nextSSAId = curSSAId;
2161                curSSAId = ssaEntry.second.ssaIdBefore+1;
2162               
2163                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2164                            ":" << ssaEntry.first.index << ": " <<
2165                            nextSSAId << ", " << curSSAId << std::endl;
2166               
2167                /*if (rdata!=nullptr)
2168                    updateRoutineCurSSAIdMap(rdata, ssaEntry, entry, curSSAId, nextSSAId);
2169                */
2170            }
2171           
2172            std::cout << "pop: " << entry.blockIndex << std::endl;
2173            flowStackBlocks[entry.blockIndex] = false;
2174            flowStack.pop_back();
2175            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
2176                    lastCommonCacheWayPoint.second >= flowStack.size())
2177            {
2178                lastCommonCacheWayPoint =
2179                        { flowStack.back().blockIndex, flowStack.size()-1 };
2180                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
2181            }
2182           
2183        }
2184    }
2185   
2186    /**********
2187     * after that, we find points to resolve conflicts
2188     **********/
2189    flowStack.clear();
2190    std::deque<FlowStackEntry2> flowStack2;
2191   
2192    std::fill(visited.begin(), visited.end(), false);
2193    flowStack2.push_back({ 0, 0 });
2194   
2195    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
2196    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
2197   
2198    while (!flowStack2.empty())
2199    {
2200        FlowStackEntry2& entry = flowStack2.back();
2201        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2202       
2203        if (entry.nextIndex == 0)
2204        {
2205            // process current block
2206            if (!visited[entry.blockIndex])
2207                visited[entry.blockIndex] = true;
2208            else
2209            {
2210                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
2211                            prevWaysIndexMap, waysToCache, cblocksToCache,
2212                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
2213               
2214                // back, already visited
2215                flowStack2.pop_back();
2216                continue;
2217            }
2218        }
2219       
2220        if (entry.nextIndex < cblock.nexts.size())
2221        {
2222            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2223            entry.nextIndex++;
2224        }
2225        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2226                // if have any call then go to next block
2227                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2228                 !cblock.haveReturn && !cblock.haveEnd)
2229        {
2230            flowStack2.push_back({ entry.blockIndex+1, 0 });
2231            entry.nextIndex++;
2232        }
2233        else // back
2234        {
2235            if (cblocksToCache.count(entry.blockIndex)==2 &&
2236                !resSecondPointsCache.hasKey(entry.blockIndex))
2237                // add to cache
2238                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
2239                            entry.blockIndex);
2240            flowStack2.pop_back();
2241        }
2242    }
2243}
2244
2245void AsmRegAllocator::applySSAReplaces()
2246{
2247    /* prepare SSA id replaces */
2248    struct MinSSAGraphNode
2249    {
2250        size_t minSSAId;
2251        bool visited;
2252        std::unordered_set<size_t> nexts;
2253        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
2254    };
2255    struct MinSSAGraphStackEntry
2256    {
2257        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
2258        std::unordered_set<size_t>::const_iterator nextIt;
2259        size_t minSSAId;
2260    };
2261   
2262    for (auto& entry: ssaReplacesMap)
2263    {
2264        VectorSet<SSAReplace>& replaces = entry.second;
2265        std::sort(replaces.begin(), replaces.end());
2266        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
2267        VectorSet<SSAReplace> newReplaces;
2268       
2269        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
2270       
2271        auto it = replaces.begin();
2272        while (it != replaces.end())
2273        {
2274            auto itEnd = std::upper_bound(it, replaces.end(),
2275                            std::make_pair(it->first, size_t(SIZE_MAX)));
2276            {
2277                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2278                node.minSSAId = std::min(node.minSSAId, it->second);
2279                for (auto it2 = it; it2 != itEnd; ++it2)
2280                    node.nexts.insert(it->second);
2281            }
2282            it = itEnd;
2283        }
2284        // propagate min value
2285        std::stack<MinSSAGraphStackEntry> minSSAStack;
2286        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
2287                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
2288        {
2289            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2290            // traverse with minimalize SSA id
2291            while (!minSSAStack.empty())
2292            {
2293                MinSSAGraphStackEntry& entry = minSSAStack.top();
2294                MinSSAGraphNode& node = entry.nodeIt->second;
2295                bool toPop = false;
2296                if (entry.nextIt == node.nexts.begin())
2297                {
2298                    if (!node.visited)
2299                        node.visited = true;
2300                    else
2301                        toPop = true;
2302                }
2303                if (!toPop && entry.nextIt != node.nexts.end())
2304                {
2305                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2306                    if (nodeIt != ssaGraphNodes.end())
2307                    {
2308                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2309                                nodeIt->second.minSSAId });
2310                    }
2311                    ++entry.nextIt;
2312                }
2313                else
2314                {
2315                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2316                    minSSAStack.pop();
2317                    if (!minSSAStack.empty())
2318                    {
2319                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2320                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2321                    }
2322                }
2323            }
2324            // skip visited nodes
2325            while (ssaGraphNodeIt != ssaGraphNodes.end())
2326                if (!ssaGraphNodeIt->second.visited)
2327                    break;
2328        }
2329       
2330        for (const auto& entry: ssaGraphNodes)
2331            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2332       
2333        std::sort(newReplaces.begin(), newReplaces.end());
2334        entry.second = newReplaces;
2335    }
2336   
2337    /* apply SSA id replaces */
2338    for (CodeBlock& cblock: codeBlocks)
2339        for (auto& ssaEntry: cblock.ssaInfoMap)
2340        {
2341            auto it = ssaReplacesMap.find(ssaEntry.first);
2342            if (it == ssaReplacesMap.end())
2343                continue;
2344            SSAInfo& sinfo = ssaEntry.second;
2345            VectorSet<SSAReplace>& replaces = it->second;
2346            if (sinfo.readBeforeWrite)
2347            {
2348                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2349                                 ssaEntry.second.ssaIdBefore);
2350                if (rit != replaces.end())
2351                    sinfo.ssaIdBefore = rit->second; // replace
2352            }
2353            if (sinfo.ssaIdFirst != SIZE_MAX)
2354            {
2355                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2356                                 ssaEntry.second.ssaIdFirst);
2357                if (rit != replaces.end())
2358                    sinfo.ssaIdFirst = rit->second; // replace
2359            }
2360            if (sinfo.ssaIdLast != SIZE_MAX)
2361            {
2362                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2363                                 ssaEntry.second.ssaIdLast);
2364                if (rit != replaces.end())
2365                    sinfo.ssaIdLast = rit->second; // replace
2366            }
2367        }
2368}
2369
2370struct Liveness
2371{
2372    std::map<size_t, size_t> l;
2373   
2374    Liveness() { }
2375   
2376    void clear()
2377    { l.clear(); }
2378   
2379    void expand(size_t k)
2380    {
2381        if (l.empty())
2382            l.insert(std::make_pair(k, k+1));
2383        else
2384        {
2385            auto it = l.end();
2386            --it;
2387            it->second = k+1;
2388        }
2389    }
2390    void newRegion(size_t k)
2391    {
2392        if (l.empty())
2393            l.insert(std::make_pair(k, k));
2394        else
2395        {
2396            auto it = l.end();
2397            --it;
2398            if (it->first != k && it->second != k)
2399                l.insert(std::make_pair(k, k));
2400        }
2401    }
2402   
2403    void insert(size_t k, size_t k2)
2404    {
2405        auto it1 = l.lower_bound(k);
2406        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2407            --it1;
2408        if (it1->second < k)
2409            ++it1;
2410        auto it2 = l.lower_bound(k2);
2411        if (it1!=it2)
2412        {
2413            k = std::min(k, it1->first);
2414            k2 = std::max(k2, (--it2)->second);
2415            l.erase(it1, it2);
2416        }
2417        l.insert(std::make_pair(k, k2));
2418    }
2419   
2420    bool contain(size_t t) const
2421    {
2422        auto it = l.lower_bound(t);
2423        if (it==l.begin() && it->first>t)
2424            return false;
2425        if (it==l.end() || it->first>t)
2426            --it;
2427        return it->first<=t && t<it->second;
2428    }
2429   
2430    bool common(const Liveness& b) const
2431    {
2432        auto i = l.begin();
2433        auto j = b.l.begin();
2434        for (; i != l.end() && j != b.l.end();)
2435        {
2436            if (i->first==i->second)
2437            {
2438                ++i;
2439                continue;
2440            }
2441            if (j->first==j->second)
2442            {
2443                ++j;
2444                continue;
2445            }
2446            if (i->first<j->first)
2447            {
2448                if (i->second > j->first)
2449                    return true; // common place
2450                ++i;
2451            }
2452            else
2453            {
2454                if (i->first < j->second)
2455                    return true; // common place
2456                ++j;
2457            }
2458        }
2459        return false;
2460    }
2461};
2462
2463typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2464
2465static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2466            const AsmSingleVReg& svreg)
2467{
2468    cxuint regType; // regtype
2469    if (svreg.regVar!=nullptr)
2470        regType = svreg.regVar->type;
2471    else
2472        for (regType = 0; regType < regTypesNum; regType++)
2473            if (svreg.index >= regRanges[regType<<1] &&
2474                svreg.index < regRanges[(regType<<1)+1])
2475                break;
2476    return regType;
2477}
2478
2479static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2480        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2481        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2482{
2483    size_t ssaId;
2484    if (svreg.regVar==nullptr)
2485        ssaId = 0;
2486    else if (ssaIdIdx==0)
2487        ssaId = ssaInfo.ssaIdBefore;
2488    else if (ssaIdIdx==1)
2489        ssaId = ssaInfo.ssaIdFirst;
2490    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2491        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2492    else // last
2493        ssaId = ssaInfo.ssaIdLast;
2494   
2495    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2496    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2497    const std::vector<size_t>& ssaIdIndices =
2498                vregIndexMap.find(svreg)->second;
2499    return livenesses[regType][ssaIdIndices[ssaId]];
2500}
2501
2502typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
2503
2504struct CLRX_INTERNAL VRegLastPos
2505{
2506    size_t ssaId; // last SSA id
2507    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2508};
2509
2510/* TODO: add handling calls
2511 * handle many start points in this code (for example many kernel's in same code)
2512 * replace sets by vector, and sort and remove same values on demand
2513 */
2514
2515typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2516
2517static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
2518        const std::vector<CodeBlock>& codeBlocks,
2519        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2520        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2521        size_t regTypesNum, const cxuint* regRanges)
2522{
2523    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2524    for (const auto& entry: cblock.ssaInfoMap)
2525        if (entry.second.readBeforeWrite)
2526        {
2527            // find last
2528            auto lvrit = lastVRegMap.find(entry.first);
2529            if (lvrit == lastVRegMap.end())
2530                continue; // not found
2531            const VRegLastPos& lastPos = lvrit->second;
2532            FlowStackCIter flit = lastPos.blockChain.back();
2533            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2534            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2535            const std::vector<size_t>& ssaIdIndices =
2536                        vregIndexMap.find(entry.first)->second;
2537            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2538            FlowStackCIter flitEnd = flowStack.end();
2539            --flitEnd; // before last element
2540            // insert live time to last seen position
2541            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2542            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2543            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2544                    toLiveCvt + lastBlk.end);
2545            for (++flit; flit != flitEnd; ++flit)
2546            {
2547                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2548                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2549                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2550            }
2551        }
2552}
2553
2554static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
2555        const std::vector<CodeBlock>& codeBlocks,
2556        const Array<size_t>& codeBlockLiveTimes,
2557        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2558        size_t regTypesNum, const cxuint* regRanges)
2559{
2560    auto flitStart = flowStack.end();
2561    --flitStart;
2562    size_t curBlock = flitStart->blockIndex;
2563    // find step in way
2564    while (flitStart->blockIndex != curBlock) --flitStart;
2565    auto flitEnd = flowStack.end();
2566    --flitEnd;
2567    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2568   
2569    // collect var to check
2570    size_t flowPos = 0;
2571    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2572    {
2573        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2574        for (const auto& entry: cblock.ssaInfoMap)
2575        {
2576            const SSAInfo& sinfo = entry.second;
2577            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2578                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2579            varMap[entry.first] = { lastSSAId, flowPos };
2580        }
2581    }
2582    // find connections
2583    flowPos = 0;
2584    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2585    {
2586        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2587        for (const auto& entry: cblock.ssaInfoMap)
2588        {
2589            const SSAInfo& sinfo = entry.second;
2590            auto varMapIt = varMap.find(entry.first);
2591            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2592                flowPos > varMapIt->second.second ||
2593                sinfo.ssaIdBefore != varMapIt->second.first)
2594                continue;
2595            // just connect
2596           
2597            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2598            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2599            const std::vector<size_t>& ssaIdIndices =
2600                        vregIndexMap.find(entry.first)->second;
2601            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2602           
2603            if (flowPos == varMapIt->second.second)
2604            {
2605                // fill whole loop
2606                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2607                {
2608                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2609                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2610                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2611                }
2612                continue;
2613            }
2614           
2615            size_t flowPos2 = 0;
2616            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2617            {
2618                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2619                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2620                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2621            }
2622            // insert liveness for last block in loop of last SSAId (prev round)
2623            auto flit2 = flitStart + flowPos;
2624            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2625            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2626            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2627                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2628            // insert liveness for first block in loop of last SSAId
2629            flit2 = flitStart + (varMapIt->second.second+1);
2630            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2631            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2632            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2633                    toLiveCvt + lastBlk.end);
2634            // fill up loop end
2635            for (++flit2; flit2 != flitEnd; ++flit2)
2636            {
2637                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2638                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2639                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2640            }
2641        }
2642    }
2643}
2644
2645struct LiveBlock
2646{
2647    size_t start;
2648    size_t end;
2649    size_t vidx;
2650   
2651    bool operator==(const LiveBlock& b) const
2652    { return start==b.start && end==b.end && vidx==b.vidx; }
2653   
2654    bool operator<(const LiveBlock& b) const
2655    { return start<b.start || (start==b.start &&
2656            (end<b.end || (end==b.end && vidx<b.vidx))); }
2657};
2658
2659typedef AsmRegAllocator::LinearDep LinearDep;
2660typedef AsmRegAllocator::EqualToDep EqualToDep;
2661typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2662typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2663
2664static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2665            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2666            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2667            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2668            size_t regTypesNum, const cxuint* regRanges)
2669{
2670    // add linear deps
2671    cxuint count = ldeps[0];
2672    cxuint pos = 1;
2673    cxbyte rvuAdded = 0;
2674    for (cxuint i = 0; i < count; i++)
2675    {
2676        cxuint ccount = ldeps[pos++];
2677        std::vector<size_t> vidxes;
2678        cxuint regType = UINT_MAX;
2679        cxbyte align = rvus[ldeps[pos]].align;
2680        for (cxuint j = 0; j < ccount; j++)
2681        {
2682            rvuAdded |= 1U<<ldeps[pos];
2683            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2684            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2685            {
2686                AsmSingleVReg svreg = {rvu.regVar, k};
2687                auto sit = ssaIdIdxMap.find(svreg);
2688                if (regType==UINT_MAX)
2689                    regType = getRegType(regTypesNum, regRanges, svreg);
2690                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2691                const std::vector<size_t>& ssaIdIndices =
2692                            vregIndexMap.find(svreg)->second;
2693                // push variable index
2694                vidxes.push_back(ssaIdIndices[sit->second]);
2695            }
2696        }
2697        ldepsOut[regType][vidxes[0]].align = align;
2698        for (size_t k = 1; k < vidxes.size(); k++)
2699        {
2700            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2701            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2702        }
2703    }
2704    // add single arg linear dependencies
2705    for (cxuint i = 0; i < rvusNum; i++)
2706        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2707        {
2708            const AsmRegVarUsage& rvu = rvus[i];
2709            std::vector<size_t> vidxes;
2710            cxuint regType = UINT_MAX;
2711            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2712            {
2713                AsmSingleVReg svreg = {rvu.regVar, k};
2714                auto sit = ssaIdIdxMap.find(svreg);
2715                if (regType==UINT_MAX)
2716                    regType = getRegType(regTypesNum, regRanges, svreg);
2717                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2718                const std::vector<size_t>& ssaIdIndices =
2719                            vregIndexMap.find(svreg)->second;
2720                // push variable index
2721                vidxes.push_back(ssaIdIndices[sit->second]);
2722            }
2723            for (size_t j = 1; j < vidxes.size(); j++)
2724            {
2725                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2726                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2727            }
2728        }
2729       
2730    /* equalTo dependencies */
2731    count = edeps[0];
2732    pos = 1;
2733    for (cxuint i = 0; i < count; i++)
2734    {
2735        cxuint ccount = edeps[pos++];
2736        std::vector<size_t> vidxes;
2737        cxuint regType = UINT_MAX;
2738        for (cxuint j = 0; j < ccount; j++)
2739        {
2740            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2741            // only one register should be set for equalTo depencencies
2742            // other registers in range will be resolved by linear dependencies
2743            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2744            auto sit = ssaIdIdxMap.find(svreg);
2745            if (regType==UINT_MAX)
2746                regType = getRegType(regTypesNum, regRanges, svreg);
2747            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2748            const std::vector<size_t>& ssaIdIndices =
2749                        vregIndexMap.find(svreg)->second;
2750            // push variable index
2751            vidxes.push_back(ssaIdIndices[sit->second]);
2752        }
2753        for (size_t j = 1; j < vidxes.size(); j++)
2754        {
2755            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2756            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2757        }
2758    }
2759}
2760
2761typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2762
2763struct EqualStackEntry
2764{
2765    EqualToDepMapCIter etoDepIt;
2766    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2767};
2768
2769void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
2770{
2771    // construct var index maps
2772    size_t graphVregsCounts[MAX_REGTYPES_NUM];
2773    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
2774    cxuint regRanges[MAX_REGTYPES_NUM*2];
2775    size_t regTypesNum;
2776    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2777   
2778    for (const CodeBlock& cblock: codeBlocks)
2779        for (const auto& entry: cblock.ssaInfoMap)
2780        {
2781            const SSAInfo& sinfo = entry.second;
2782            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2783            VarIndexMap& vregIndices = vregIndexMaps[regType];
2784            size_t& graphVregsCount = graphVregsCounts[regType];
2785            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2786            size_t ssaIdCount = 0;
2787            if (sinfo.readBeforeWrite)
2788                ssaIdCount = sinfo.ssaIdBefore+1;
2789            if (sinfo.ssaIdChange!=0)
2790            {
2791                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2792                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2793            }
2794            if (ssaIdIndices.size() < ssaIdCount)
2795                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2796           
2797            if (sinfo.readBeforeWrite)
2798                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2799            if (sinfo.ssaIdChange!=0)
2800            {
2801                // fill up ssaIdIndices (with graph Ids)
2802                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2803                for (size_t ssaId = sinfo.ssaId+1;
2804                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2805                    ssaIdIndices[ssaId] = graphVregsCount++;
2806                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2807            }
2808        }
2809   
2810    // construct vreg liveness
2811    std::deque<FlowStackEntry> flowStack;
2812    std::vector<bool> visited(codeBlocks.size(), false);
2813    // hold last vreg ssaId and position
2814    LastVRegMap lastVRegMap;
2815    // hold start live time position for every code block
2816    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
2817    std::unordered_set<size_t> blockInWay;
2818   
2819    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
2820   
2821    for (size_t i = 0; i < regTypesNum; i++)
2822        livenesses[i].resize(graphVregsCounts[i]);
2823   
2824    size_t curLiveTime = 0;
2825   
2826    while (!flowStack.empty())
2827    {
2828        FlowStackEntry& entry = flowStack.back();
2829        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2830       
2831        if (entry.nextIndex == 0)
2832        {
2833            // process current block
2834            if (!blockInWay.insert(entry.blockIndex).second)
2835            {
2836                // if loop
2837                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
2838                        livenesses, vregIndexMaps, regTypesNum, regRanges);
2839                flowStack.pop_back();
2840                continue;
2841            }
2842           
2843            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
2844            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
2845                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
2846           
2847            for (const auto& sentry: cblock.ssaInfoMap)
2848            {
2849                const SSAInfo& sinfo = sentry.second;
2850                // update
2851                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2852                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2853                FlowStackCIter flit = flowStack.end();
2854                --flit; // to last position
2855                auto res = lastVRegMap.insert({ sentry.first, 
2856                            { lastSSAId, { flit } } });
2857                if (!res.second) // if not first seen, just update
2858                {
2859                    // update last
2860                    res.first->second.ssaId = lastSSAId;
2861                    res.first->second.blockChain.push_back(flit);
2862                }
2863            }
2864           
2865            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
2866            if (!visited[entry.blockIndex])
2867            {
2868                visited[entry.blockIndex] = true;
2869                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
2870                AsmRegVarUsage instrRVUs[8];
2871                cxuint instrRVUsCount = 0;
2872               
2873                size_t oldOffset = cblock.usagePos.readOffset;
2874                std::vector<AsmSingleVReg> readSVRegs;
2875                std::vector<AsmSingleVReg> writtenSVRegs;
2876               
2877                usageHandler.setReadPos(cblock.usagePos);
2878                // register in liveness
2879                while (true)
2880                {
2881                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
2882                    size_t liveTimeNext = curBlockLiveEnd;
2883                    if (usageHandler.hasNext())
2884                    {
2885                        rvu = usageHandler.nextUsage();
2886                        if (rvu.offset >= cblock.end)
2887                            break;
2888                        if (!rvu.useRegMode)
2889                            instrRVUs[instrRVUsCount++] = rvu;
2890                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2891                                cblock.start + curLiveTime;
2892                    }
2893                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
2894                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
2895                    {
2896                        // apply to liveness
2897                        for (AsmSingleVReg svreg: readSVRegs)
2898                        {
2899                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2900                                    cblock.ssaInfoMap.find(svreg)->second,
2901                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2902                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2903                                lv.newRegion(curLiveTime); // begin region from this block
2904                            lv.expand(liveTime);
2905                        }
2906                        for (AsmSingleVReg svreg: writtenSVRegs)
2907                        {
2908                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
2909                            ssaIdIdx++;
2910                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
2911                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
2912                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2913                            if (liveTimeNext != curBlockLiveEnd)
2914                                // because live after this instr
2915                                lv.newRegion(liveTimeNext);
2916                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
2917                        }
2918                        // get linear deps and equal to
2919                        cxbyte lDeps[16];
2920                        cxbyte eDeps[16];
2921                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
2922                                        lDeps, eDeps);
2923                       
2924                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
2925                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
2926                                regTypesNum, regRanges);
2927                       
2928                        readSVRegs.clear();
2929                        writtenSVRegs.clear();
2930                        if (!usageHandler.hasNext())
2931                            break; // end
2932                        oldOffset = rvu.offset;
2933                        instrRVUsCount = 0;
2934                    }
2935                    if (rvu.offset >= cblock.end)
2936                        break;
2937                   
2938                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2939                    {
2940                        // per register/singlvreg
2941                        AsmSingleVReg svreg{ rvu.regVar, rindex };
2942                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
2943                            writtenSVRegs.push_back(svreg);
2944                        else // read or treat as reading // expand previous region
2945                            readSVRegs.push_back(svreg);
2946                    }
2947                }
2948                curLiveTime += cblock.end-cblock.start;
2949            }
2950            else
2951            {
2952                // back, already visited
2953                flowStack.pop_back();
2954                continue;
2955            }
2956        }
2957        if (entry.nextIndex < cblock.nexts.size())
2958        {
2959            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2960            entry.nextIndex++;
2961        }
2962        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
2963        {
2964            flowStack.push_back({ entry.blockIndex+1, 0 });
2965            entry.nextIndex++;
2966        }
2967        else // back
2968        {
2969            // revert lastSSAIdMap
2970            blockInWay.erase(entry.blockIndex);
2971            flowStack.pop_back();
2972            if (!flowStack.empty())
2973            {
2974                for (const auto& sentry: cblock.ssaInfoMap)
2975                {
2976                    auto lvrit = lastVRegMap.find(sentry.first);
2977                    if (lvrit != lastVRegMap.end())
2978                    {
2979                        VRegLastPos& lastPos = lvrit->second;
2980                        lastPos.ssaId = sentry.second.ssaIdBefore;
2981                        lastPos.blockChain.pop_back();
2982                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
2983                            lastVRegMap.erase(lvrit);
2984                    }
2985                }
2986            }
2987        }
2988    }
2989   
2990    /// construct liveBlockMaps
2991    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
2992    for (size_t regType = 0; regType < regTypesNum; regType++)
2993    {
2994        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2995        std::vector<Liveness>& liveness = livenesses[regType];
2996        for (size_t li = 0; li < liveness.size(); li++)
2997        {
2998            Liveness& lv = liveness[li];
2999            for (const std::pair<size_t, size_t>& blk: lv.l)
3000                if (blk.first != blk.second)
3001                    liveBlockMap.insert({ blk.first, blk.second, li });
3002            lv.clear();
3003        }
3004        liveness.clear();
3005    }
3006   
3007    // create interference graphs
3008    for (size_t regType = 0; regType < regTypesNum; regType++)
3009    {
3010        InterGraph& interGraph = interGraphs[regType];
3011        interGraph.resize(graphVregsCounts[regType]);
3012        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3013       
3014        auto lit = liveBlockMap.begin();
3015        size_t rangeStart = 0;
3016        if (lit != liveBlockMap.end())
3017            rangeStart = lit->start;
3018        while (lit != liveBlockMap.end())
3019        {
3020            const size_t blkStart = lit->start;
3021            const size_t blkEnd = lit->end;
3022            size_t rangeEnd = blkEnd;
3023            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
3024            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
3025            // collect from this range, variable indices
3026            std::set<size_t> varIndices;
3027            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
3028                varIndices.insert(lit2->vidx);
3029            // push to intergraph as full subgGraph
3030            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
3031                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
3032                    if (vit != vit2)
3033                        interGraph[*vit].insert(*vit2);
3034            // go to next live blocks
3035            rangeStart = rangeEnd;
3036            for (; lit != liveBlockMap.end(); ++lit)
3037                if (lit->start != blkStart && lit->end != blkEnd)
3038                    break;
3039            if (lit == liveBlockMap.end())
3040                break; //
3041            rangeStart = std::max(rangeStart, lit->start);
3042        }
3043    }
3044   
3045    /*
3046     * resolve equalSets
3047     */
3048    for (cxuint regType = 0; regType < regTypesNum; regType++)
3049    {
3050        InterGraph& interGraph = interGraphs[regType];
3051        const size_t nodesNum = interGraph.size();
3052        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
3053        std::vector<bool> visited(nodesNum, false);
3054        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3055       
3056        for (size_t v = 0; v < nodesNum;)
3057        {
3058            auto it = etoDepMap.find(v);
3059            if (it == etoDepMap.end())
3060            {
3061                // is not regvar in equalTo dependencies
3062                v++;
3063                continue;
3064            }
3065           
3066            std::stack<EqualStackEntry> etoStack;
3067            etoStack.push(EqualStackEntry{ it, 0 });
3068           
3069            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3070            const size_t equalSetIndex = equalSetList.size();
3071            equalSetList.push_back(std::vector<size_t>());
3072            std::vector<size_t>& equalSet = equalSetList.back();
3073           
3074            // traverse by this
3075            while (!etoStack.empty())
3076            {
3077                EqualStackEntry& entry = etoStack.top();
3078                size_t vidx = entry.etoDepIt->first; // node index, vreg index
3079                const EqualToDep& eToDep = entry.etoDepIt->second;
3080                if (entry.nextIdx == 0)
3081                {
3082                    if (!visited[vidx])
3083                    {
3084                        // push to this equalSet
3085                        equalSetMap.insert({ vidx, equalSetIndex });
3086                        equalSet.push_back(vidx);
3087                    }
3088                    else
3089                    {
3090                        // already visited
3091                        etoStack.pop();
3092                        continue;
3093                    }
3094                }
3095               
3096                if (entry.nextIdx < eToDep.nextVidxes.size())
3097                {
3098                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
3099                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3100                    entry.nextIdx++;
3101                }
3102                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
3103                {
3104                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
3105                                entry.nextIdx - eToDep.nextVidxes.size()]);
3106                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3107                    entry.nextIdx++;
3108                }
3109                else
3110                    etoStack.pop();
3111            }
3112           
3113            // to first already added node (var)
3114            while (v < nodesNum && !visited[v]) v++;
3115        }
3116    }
3117}
3118
3119typedef AsmRegAllocator::InterGraph InterGraph;
3120
3121struct CLRX_INTERNAL SDOLDOCompare
3122{
3123    const InterGraph& interGraph;
3124    const Array<size_t>& sdoCounts;
3125   
3126    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
3127        : interGraph(_interGraph), sdoCounts(_sdoCounts)
3128    { }
3129   
3130    bool operator()(size_t a, size_t b) const
3131    {
3132        if (sdoCounts[a] > sdoCounts[b])
3133            return true;
3134        return interGraph[a].size() > interGraph[b].size();
3135    }
3136};
3137
3138/* algorithm to allocate regranges:
3139 * from smallest regranges to greatest regranges:
3140 *   choosing free register: from smallest free regranges
3141 *      to greatest regranges:
3142 *         in this same regrange:
3143 *               try to find free regs in regranges
3144 *               try to link free ends of two distinct regranges
3145 */
3146
3147void AsmRegAllocator::colorInterferenceGraph()
3148{
3149    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
3150                    assembler.deviceType);
3151   
3152    for (size_t regType = 0; regType < regTypesNum; regType++)
3153    {
3154        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
3155        InterGraph& interGraph = interGraphs[regType];
3156        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3157        Array<cxuint>& gcMap = graphColorMaps[regType];
3158        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3159        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3160       
3161        const size_t nodesNum = interGraph.size();
3162        gcMap.resize(nodesNum);
3163        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
3164        Array<size_t> sdoCounts(nodesNum);
3165        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
3166       
3167        SDOLDOCompare compare(interGraph, sdoCounts);
3168        std::set<size_t, SDOLDOCompare> nodeSet(compare);
3169        for (size_t i = 0; i < nodesNum; i++)
3170            nodeSet.insert(i);
3171       
3172        cxuint colorsNum = 0;
3173        // firstly, allocate real registers
3174        for (const auto& entry: vregIndexMap)
3175            if (entry.first.regVar == nullptr)
3176                gcMap[entry.second[0]] = colorsNum++;
3177       
3178        for (size_t colored = 0; colored < nodesNum; colored++)
3179        {
3180            size_t node = *nodeSet.begin();
3181            if (gcMap[node] != UINT_MAX)
3182                continue; // already colored
3183            size_t color = 0;
3184            std::vector<size_t> equalNodes;
3185            equalNodes.push_back(node); // only one node, if equalSet not found
3186            auto equalSetMapIt = equalSetMap.find(node);
3187            if (equalSetMapIt != equalSetMap.end())
3188                // found, get equal set from equalSetList
3189                equalNodes = equalSetList[equalSetMapIt->second];
3190           
3191            for (color = 0; color <= colorsNum; color++)
3192            {
3193                // find first usable color
3194                bool thisSame = false;
3195                for (size_t nb: interGraph[node])
3196                    if (gcMap[nb] == color)
3197                    {
3198                        thisSame = true;
3199                        break;
3200                    }
3201                if (!thisSame)
3202                    break;
3203            }
3204            if (color==colorsNum) // add new color if needed
3205            {
3206                if (colorsNum >= maxColorsNum)
3207                    throw AsmException("Too many register is needed");
3208                colorsNum++;
3209            }
3210           
3211            for (size_t nextNode: equalNodes)
3212                gcMap[nextNode] = color;
3213            // update SDO for node
3214            bool colorExists = false;
3215            for (size_t node: equalNodes)
3216            {
3217                for (size_t nb: interGraph[node])
3218                    if (gcMap[nb] == color)
3219                    {
3220                        colorExists = true;
3221                        break;
3222                    }
3223                if (!colorExists)
3224                    sdoCounts[node]++;
3225            }
3226            // update SDO for neighbors
3227            for (size_t node: equalNodes)
3228                for (size_t nb: interGraph[node])
3229                {
3230                    colorExists = false;
3231                    for (size_t nb2: interGraph[nb])
3232                        if (gcMap[nb2] == color)
3233                        {
3234                            colorExists = true;
3235                            break;
3236                        }
3237                    if (!colorExists)
3238                    {
3239                        if (gcMap[nb] == UINT_MAX)
3240                            nodeSet.erase(nb);  // before update we erase from nodeSet
3241                        sdoCounts[nb]++;
3242                        if (gcMap[nb] == UINT_MAX)
3243                            nodeSet.insert(nb); // after update, insert again
3244                    }
3245                }
3246           
3247            for (size_t nextNode: equalNodes)
3248                gcMap[nextNode] = color;
3249        }
3250    }
3251}
3252
3253void AsmRegAllocator::allocateRegisters(cxuint sectionId)
3254{
3255    // before any operation, clear all
3256    codeBlocks.clear();
3257    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
3258    {
3259        vregIndexMaps[i].clear();
3260        interGraphs[i].clear();
3261        linearDepMaps[i].clear();
3262        equalToDepMaps[i].clear();
3263        graphColorMaps[i].clear();
3264        equalSetMaps[i].clear();
3265        equalSetLists[i].clear();
3266    }
3267    ssaReplacesMap.clear();
3268    cxuint maxRegs[MAX_REGTYPES_NUM];
3269    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
3270   
3271    // set up
3272    const AsmSection& section = assembler.sections[sectionId];
3273    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
3274    createSSAData(*section.usageHandler);
3275    applySSAReplaces();
3276    createInterferenceGraph(*section.usageHandler);
3277    colorInterferenceGraph();
3278}
Note: See TracBrowser for help on using the repository browser.