source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3955

Last change on this file since 3955 was 3955, checked in by matszpk, 13 months ago

CLRadeonExtender: AsmRegAlloc?: Apply CBlockBitPool.

File size: 128.1 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558
559//  BlockIndex
560
561struct CLRX_INTERNAL BlockIndex
562{
563    size_t index;
564    size_t pass;
565   
566    BlockIndex(size_t _index = 0, size_t _pass = 0)
567            : index(_index), pass(_pass)
568    { }
569   
570    bool operator==(const BlockIndex& v) const
571    { return index==v.index && pass==v.pass; }
572    bool operator!=(const BlockIndex& v) const
573    { return index!=v.index || pass!=v.pass; }
574   
575    BlockIndex operator+(size_t p) const
576    { return BlockIndex(index+p, pass); }
577};
578
579std::ostream& operator<<(std::ostream& os, const BlockIndex& v)
580{
581    if (v.pass==0)
582        return os << v.index;
583    else
584        return os << v.index << "#" << v.pass;
585}
586
587namespace std
588{
589
590/// std::hash specialization for CLRX CString
591template<>
592struct hash<BlockIndex>
593{
594    typedef BlockIndex argument_type;    ///< argument type
595    typedef std::size_t result_type;    ///< result type
596   
597    /// a calling operator
598    size_t operator()(const BlockIndex& r1) const
599    {
600        std::hash<size_t> h1;
601        return h1(r1.index) ^ h1(r1.pass);
602    }
603};
604
605}
606
607class CLRX_INTERNAL CBlockBitPool: public std::vector<bool>
608{
609public:
610    CBlockBitPool(size_t n = 0, bool v = false) : std::vector<bool>(n<<1, v)
611    { }
612   
613    reference operator[](BlockIndex i)
614    { return std::vector<bool>::operator[](i.index + (i.pass ? (size()>>1) : 0)); }
615    const_reference operator[](BlockIndex i) const
616    { return std::vector<bool>::operator[](i.index + (i.pass ? (size()>>1) : 0)); }
617};
618
619/** Simple cache **/
620
621// map of last SSAId for routine, key - varid, value - last SSA ids
622class CLRX_INTERNAL LastSSAIdMap: public
623            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
624{
625public:
626    LastSSAIdMap()
627    { }
628   
629    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
630    {
631        auto res = insert({ vreg, { ssaId } });
632        if (!res.second)
633            res.first->second.insertValue(ssaId);
634        return res.first;
635    }
636   
637    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
638    {
639        auto it = find(vreg);
640        if (it != end())
641             it->second.eraseValue(ssaId);
642    }
643   
644    size_t weight() const
645    { return size(); }
646};
647
648typedef LastSSAIdMap RBWSSAIdMap;
649typedef std::unordered_map<BlockIndex, VectorSet<BlockIndex> > SubrLoopsMap;
650
651struct CLRX_INTERNAL RetSSAEntry
652{
653    std::vector<BlockIndex> routines;
654    VectorSet<size_t> ssaIds;
655    size_t prevSSAId; // for curSSAId
656};
657
658typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
659
660struct CLRX_INTERNAL LoopSSAIdMap
661{
662    LastSSAIdMap ssaIdMap;
663    bool passed;
664};
665
666struct CLRX_INTERNAL RoutineData
667{
668    // rbwSSAIdMap - read before write SSAId's map
669    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
670    LastSSAIdMap curSSAIdMap;
671    LastSSAIdMap lastSSAIdMap;
672    // key - loop block, value - last ssaId map for loop end
673    std::unordered_map<BlockIndex, LoopSSAIdMap> loopEnds;
674    bool notFirstReturn;
675    size_t weight_;
676   
677    RoutineData() : notFirstReturn(false), weight_(0)
678    { }
679   
680    void calculateWeight()
681    {
682        weight_ = rbwSSAIdMap.size() + lastSSAIdMap.weight();
683        for (const auto& entry: loopEnds)
684            weight_ += entry.second.ssaIdMap.weight();
685    }
686   
687    size_t weight() const
688    { return weight_; }
689};
690
691struct CLRX_INTERNAL FlowStackEntry
692{
693    BlockIndex blockIndex;
694    size_t nextIndex;
695    bool isCall;
696    RetSSAIdMap prevRetSSAIdSets;
697};
698
699struct CLRX_INTERNAL FlowStackEntry2
700{
701    BlockIndex blockIndex;
702    size_t nextIndex;
703};
704
705struct CLRX_INTERNAL FlowStackEntry3
706{
707    size_t blockIndex;
708    size_t nextIndex;
709    bool isCall;
710    RetSSAIdMap prevRetSSAIdSets;
711};
712
713
714struct CLRX_INTERNAL CallStackEntry
715{
716    BlockIndex callBlock; // index
717    size_t callNextIndex; // index of call next
718    BlockIndex routineBlock;    // routine block
719};
720
721typedef std::unordered_map<BlockIndex, RoutineData> RoutineMap;
722
723class CLRX_INTERNAL ResSecondPointsToCache: public CBlockBitPool
724{
725public:
726    explicit ResSecondPointsToCache(size_t n) : CBlockBitPool(n<<1, false)
727    { }
728   
729    void increase(BlockIndex ip)
730    {
731        const size_t i = ip.index + (ip.pass ? (size()>>2) : 0);
732        if ((*this)[i<<1])
733            (*this)[(i<<1)+1] = true;
734        else
735            (*this)[i<<1] = true;
736    }
737   
738    cxuint count(BlockIndex ip) const
739    {
740        const size_t i = ip.index + (ip.pass ? (size()>>2) : 0);
741        return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1];
742    }
743};
744
745typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
746typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
747
748static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
749              size_t origId, size_t destId)
750{
751    auto res = rmap.insert({ vreg, {} });
752    res.first->second.insertValue({ origId, destId });
753}
754
755/* caching concepts:
756 * resfirstPointsCache - cache of the ways that goes to conflict which should be resolved
757 *               from first code block of the code. The entries holds a stackVarMap state
758 *               to first point the conflict (first visited already code block)
759 * resSecondPointsCache - cache of the tree traversing, starting at the first conflict
760 *               point (first visited code block). Entries holds a
761 *               regvars SSAId read before write (that should resolved)
762 */
763
764static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
765            const LastSSAIdMap* stackVarMap,
766            std::unordered_map<AsmSingleVReg, BlockIndex>& alreadyReadMap,
767            FlowStackEntry2& entry, const SSAEntry& sentry,
768            RBWSSAIdMap* cacheSecPoints)
769{
770    const SSAInfo& sinfo = sentry.second;
771    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
772   
773    if (res.second && sinfo.readBeforeWrite)
774    {
775        if (cacheSecPoints != nullptr)
776        {
777            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
778            if (!res.second)
779                res.first->second.insertValue(sinfo.ssaIdBefore);
780        }
781       
782        if (stackVarMap != nullptr)
783        {
784           
785            // resolve conflict for this variable ssaId>.
786            // only if in previous block previous SSAID is
787            // read before all writes
788            auto it = stackVarMap->find(sentry.first);
789           
790            if (it != stackVarMap->end())
791            {
792                // found, resolve by set ssaIdLast
793                for (size_t ssaId: it->second)
794                {
795                    if (ssaId > sinfo.ssaIdBefore)
796                    {
797                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
798                            sentry.first.index  << ": " <<
799                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
800                        insertReplace(*replacesMap, sentry.first, ssaId,
801                                    sinfo.ssaIdBefore);
802                    }
803                    else if (ssaId < sinfo.ssaIdBefore)
804                    {
805                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
806                            sentry.first.index  << ": " <<
807                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
808                        insertReplace(*replacesMap, sentry.first,
809                                        sinfo.ssaIdBefore, ssaId);
810                    }
811                    /*else
812                        std::cout << "  noinsertreplace: " <<
813                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
814                }
815            }
816        }
817    }
818}
819
820typedef std::unordered_map<BlockIndex, std::pair<BlockIndex, size_t> > PrevWaysIndexMap;
821
822// use res second point cache entry to resolve conflict with SSAIds.
823// it emits SSA replaces from these conflicts
824static void useResSecPointCache(SSAReplacesMap* replacesMap,
825        const LastSSAIdMap* stackVarMap,
826        const std::unordered_map<AsmSingleVReg, BlockIndex>& alreadyReadMap,
827        const RBWSSAIdMap* resSecondPoints, BlockIndex nextBlock,
828        RBWSSAIdMap* destCacheSecPoints)
829{
830    std::cout << "use resSecPointCache for " << nextBlock <<
831            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
832    for (const auto& sentry: *resSecondPoints)
833    {
834        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
835        if (destCacheSecPoints != nullptr && !alreadyRead)
836        {
837            auto res = destCacheSecPoints->insert(sentry);
838            if (!res.second)
839                for (size_t srcSSAId: sentry.second)
840                    res.first->second.insertValue(srcSSAId);
841        }
842       
843        if (stackVarMap != nullptr)
844        {
845            auto it = stackVarMap->find(sentry.first);
846           
847            if (it != stackVarMap->end() && !alreadyRead)
848            {
849                // found, resolve by set ssaIdLast
850                for (size_t ssaId: it->second)
851                {
852                    for (size_t secSSAId: sentry.second)
853                    {
854                        if (ssaId > secSSAId)
855                        {
856                            std::cout << "  insertreplace: " <<
857                                sentry.first.regVar << ":" <<
858                                sentry.first.index  << ": " <<
859                                ssaId << ", " << secSSAId << std::endl;
860                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
861                        }
862                        else if (ssaId < secSSAId)
863                        {
864                            std::cout << "  insertreplace2: " <<
865                                sentry.first.regVar << ":" <<
866                                sentry.first.index  << ": " <<
867                                ssaId << ", " << secSSAId << std::endl;
868                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
869                        }
870                        /*else
871                            std::cout << "  noinsertreplace: " <<
872                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
873                    }
874                }
875            }
876        }
877    }
878}
879
880// add new res second cache entry with readBeforeWrite for all encountered regvars
881static void addResSecCacheEntry(const RoutineMap& routineMap,
882                const std::vector<CodeBlock>& codeBlocks,
883                SimpleCache<BlockIndex, RBWSSAIdMap>& resSecondPointsCache,
884                BlockIndex nextBlock)
885{
886    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
887    //std::stack<CallStackEntry> callStack = prevCallStack;
888    // traverse by graph from next block
889    std::deque<FlowStackEntry2> flowStack;
890    flowStack.push_back({ nextBlock, 0 });
891    CBlockBitPool visited(codeBlocks.size(), false);
892   
893    std::unordered_map<AsmSingleVReg, BlockIndex> alreadyReadMap;
894   
895    RBWSSAIdMap cacheSecPoints;
896   
897    while (!flowStack.empty())
898    {
899        FlowStackEntry2& entry = flowStack.back();
900        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
901       
902        if (entry.nextIndex == 0)
903        {
904            // process current block
905            if (!visited[entry.blockIndex])
906            {
907                visited[entry.blockIndex] = true;
908                std::cout << "  resolv (cache): " << entry.blockIndex << std::endl;
909               
910                const RBWSSAIdMap* resSecondPoints =
911                            resSecondPointsCache.use(entry.blockIndex);
912                if (resSecondPoints == nullptr)
913                    for (auto& sentry: cblock.ssaInfoMap)
914                        handleSSAEntryWhileResolving(nullptr, nullptr,
915                                alreadyReadMap, entry, sentry,
916                                &cacheSecPoints);
917                else // to use cache
918                {
919                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
920                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
921                    flowStack.pop_back();
922                    continue;
923                }
924            }
925            else
926            {
927                // back, already visited
928                std::cout << "resolv already (cache): " << entry.blockIndex << std::endl;
929                flowStack.pop_back();
930                continue;
931            }
932        }
933       
934        if (entry.nextIndex < cblock.nexts.size())
935        {
936            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
937            entry.nextIndex++;
938        }
939        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
940                // if have any call then go to next block
941                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
942                 !cblock.haveReturn && !cblock.haveEnd)
943        {
944            // add toResolveMap ssaIds inside called routines
945            for (const auto& next: cblock.nexts)
946                if (next.isCall)
947                {
948                    const RoutineData& rdata = routineMap.find(next.block)->second;
949                    for (const auto& v: rdata.rbwSSAIdMap)
950                        alreadyReadMap.insert({v.first, entry.blockIndex });
951                    for (const auto& v: rdata.lastSSAIdMap)
952                        alreadyReadMap.insert({v.first, entry.blockIndex });
953                }
954           
955            flowStack.push_back({ entry.blockIndex+1, 0 });
956            entry.nextIndex++;
957        }
958        else // back
959        {
960            // remove old to resolve in leaved way to allow collecting next ssaId
961            // before write (can be different due to earlier visit)
962            for (const auto& next: cblock.nexts)
963                if (next.isCall)
964                {
965                    const RoutineData& rdata = routineMap.find(next.block)->second;
966                    for (const auto& v: rdata.rbwSSAIdMap)
967                    {
968                        auto it = alreadyReadMap.find(v.first);
969                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
970                            alreadyReadMap.erase(it);
971                    }
972                    for (const auto& v: rdata.lastSSAIdMap)
973                    {
974                        auto it = alreadyReadMap.find(v.first);
975                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
976                            alreadyReadMap.erase(it);
977                    }
978                }
979           
980            for (const auto& sentry: cblock.ssaInfoMap)
981            {
982                auto it = alreadyReadMap.find(sentry.first);
983                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
984                    // remove old to resolve in leaved way to allow collecting next ssaId
985                    // before write (can be different due to earlier visit)
986                    alreadyReadMap.erase(it);
987            }
988            std::cout << "  popresolv (cache)" << std::endl;
989            flowStack.pop_back();
990        }
991    }
992   
993    resSecondPointsCache.put(nextBlock, cacheSecPoints);
994}
995
996// apply calls (changes from these calls) from code blocks to stack var map
997static void applyCallToStackVarMap(const CodeBlock& cblock, const RoutineMap& routineMap,
998        LastSSAIdMap& stackVarMap, BlockIndex blockIndex, size_t nextIndex)
999{
1000    for (const NextBlock& next: cblock.nexts)
1001        if (next.isCall)
1002        {
1003            const LastSSAIdMap& regVarMap =
1004                    routineMap.find(next.block)->second.lastSSAIdMap;
1005            for (const auto& sentry: regVarMap)
1006                stackVarMap[sentry.first].clear(); // clearing
1007        }
1008   
1009    for (const NextBlock& next: cblock.nexts)
1010        if (next.isCall)
1011        {
1012            std::cout << "  applycall: " << blockIndex << ": " <<
1013                    nextIndex << ": " << next.block << std::endl;
1014            const LastSSAIdMap& regVarMap =
1015                    routineMap.find(next.block)->second.lastSSAIdMap;
1016            for (const auto& sentry: regVarMap)
1017                for (size_t s: sentry.second)
1018                    stackVarMap.insertSSAId(sentry.first, s);
1019        }
1020}
1021
1022
1023// main routine to resilve SSA conflicts in code
1024// it emits SSA replaces from these conflicts
1025static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
1026        const RoutineMap& routineMap, const std::vector<CodeBlock>& codeBlocks,
1027        const PrevWaysIndexMap& prevWaysIndexMap,
1028        const CBlockBitPool& waysToCache, ResSecondPointsToCache& cblocksToCache,
1029        SimpleCache<BlockIndex, LastSSAIdMap>& resFirstPointsCache,
1030        SimpleCache<BlockIndex, RBWSSAIdMap>& resSecondPointsCache,
1031        SSAReplacesMap& replacesMap)
1032{
1033    BlockIndex nextBlock = prevFlowStack.back().blockIndex;
1034    auto pfEnd = prevFlowStack.end();
1035    --pfEnd;
1036    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
1037    LastSSAIdMap stackVarMap;
1038   
1039    size_t pfStartIndex = 0;
1040    {
1041        auto pfPrev = pfEnd;
1042        --pfPrev;
1043        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
1044        if (it != prevWaysIndexMap.end())
1045        {
1046            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
1047            if (cached!=nullptr)
1048            {
1049                std::cout << "use pfcached: " << it->second.first << ", " <<
1050                        it->second.second << std::endl;
1051                stackVarMap = *cached;
1052                pfStartIndex = it->second.second+1;
1053               
1054                // apply missing calls at end of the cached
1055                const CodeBlock& cblock = codeBlocks[it->second.first.index];
1056               
1057                const FlowStackEntry2& entry = *(prevFlowStack.begin()+pfStartIndex-1);
1058                if (entry.nextIndex > cblock.nexts.size())
1059                    applyCallToStackVarMap(cblock, routineMap, stackVarMap, -1, -1);
1060            }
1061        }
1062    }
1063   
1064    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
1065    {
1066        const FlowStackEntry2& entry = *pfit;
1067        std::cout << "  apply: " << entry.blockIndex << std::endl;
1068        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1069        for (const auto& sentry: cblock.ssaInfoMap)
1070        {
1071            const SSAInfo& sinfo = sentry.second;
1072            if (sinfo.ssaIdChange != 0)
1073                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
1074        }
1075        if (entry.nextIndex > cblock.nexts.size())
1076            applyCallToStackVarMap(cblock, routineMap, stackVarMap,
1077                        entry.blockIndex, entry.nextIndex);
1078       
1079        // put to first point cache
1080        if (waysToCache[pfit->blockIndex] &&
1081            !resFirstPointsCache.hasKey(pfit->blockIndex))
1082        {
1083            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
1084            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
1085        }
1086    }
1087   
1088    RBWSSAIdMap cacheSecPoints;
1089    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
1090                cblocksToCache.count(nextBlock)>=2;
1091   
1092    //std::stack<CallStackEntry> callStack = prevCallStack;
1093    // traverse by graph from next block
1094    std::deque<FlowStackEntry2> flowStack;
1095    flowStack.push_back({ nextBlock, 0 });
1096    CBlockBitPool visited(codeBlocks.size(), false);
1097   
1098    // already read in current path
1099    // key - vreg, value - source block where vreg of conflict found
1100    std::unordered_map<AsmSingleVReg, BlockIndex> alreadyReadMap;
1101   
1102    while (!flowStack.empty())
1103    {
1104        FlowStackEntry2& entry = flowStack.back();
1105        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1106       
1107        if (entry.nextIndex == 0)
1108        {
1109            // process current block
1110            if (!visited[entry.blockIndex])
1111            {
1112                visited[entry.blockIndex] = true;
1113                std::cout << "  resolv: " << entry.blockIndex << std::endl;
1114               
1115                const RBWSSAIdMap* resSecondPoints =
1116                        resSecondPointsCache.use(entry.blockIndex);
1117                if (resSecondPoints == nullptr)
1118                    for (auto& sentry: cblock.ssaInfoMap)
1119                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
1120                                alreadyReadMap, entry, sentry,
1121                                toCache ? &cacheSecPoints : nullptr);
1122                else // to use cache
1123                {
1124                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
1125                            resSecondPoints, entry.blockIndex,
1126                            toCache ? &cacheSecPoints : nullptr);
1127                    flowStack.pop_back();
1128                    continue;
1129                }
1130            }
1131            else
1132            {
1133                cblocksToCache.increase(entry.blockIndex);
1134                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1135                            cblocksToCache.count(entry.blockIndex) << std::endl;
1136                // back, already visited
1137                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1138                flowStack.pop_back();
1139                continue;
1140            }
1141        }
1142       
1143        if (entry.nextIndex < cblock.nexts.size())
1144        {
1145            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1146            entry.nextIndex++;
1147        }
1148        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1149                // if have any call then go to next block
1150                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1151                 !cblock.haveReturn && !cblock.haveEnd)
1152        {
1153            // add toResolveMap ssaIds inside called routines
1154            for (const auto& next: cblock.nexts)
1155                if (next.isCall)
1156                {
1157                    const RoutineData& rdata = routineMap.find(next.block)->second;
1158                    for (const auto& v: rdata.rbwSSAIdMap)
1159                        alreadyReadMap.insert({v.first, entry.blockIndex });
1160                    for (const auto& v: rdata.lastSSAIdMap)
1161                        alreadyReadMap.insert({v.first, entry.blockIndex });
1162                }
1163           
1164            flowStack.push_back({ entry.blockIndex+1, 0 });
1165            entry.nextIndex++;
1166        }
1167        else // back
1168        {
1169            // remove old to resolve in leaved way to allow collecting next ssaId
1170            // before write (can be different due to earlier visit)
1171            for (const auto& next: cblock.nexts)
1172                if (next.isCall)
1173                {
1174                    const RoutineData& rdata = routineMap.find(next.block)->second;
1175                    for (const auto& v: rdata.rbwSSAIdMap)
1176                    {
1177                        auto it = alreadyReadMap.find(v.first);
1178                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1179                            alreadyReadMap.erase(it);
1180                    }
1181                    for (const auto& v: rdata.lastSSAIdMap)
1182                    {
1183                        auto it = alreadyReadMap.find(v.first);
1184                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1185                            alreadyReadMap.erase(it);
1186                    }
1187                }
1188           
1189            for (const auto& sentry: cblock.ssaInfoMap)
1190            {
1191                auto it = alreadyReadMap.find(sentry.first);
1192                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1193                    // remove old to resolve in leaved way to allow collecting next ssaId
1194                    // before write (can be different due to earlier visit)
1195                    alreadyReadMap.erase(it);
1196            }
1197            std::cout << "  popresolv" << std::endl;
1198           
1199            if (cblocksToCache.count(entry.blockIndex)==2 &&
1200                !resSecondPointsCache.hasKey(entry.blockIndex))
1201                // add to cache
1202                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1203                            entry.blockIndex);
1204           
1205            flowStack.pop_back();
1206        }
1207    }
1208   
1209    if (toCache)
1210        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1211}
1212
1213// join ret SSAId Map - src - last SSAIdMap from called routine
1214static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1215                size_t routineBlock)
1216{
1217    for (const auto& entry: src)
1218    {
1219        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1220                cxuint(entry.first.index) << ":";
1221        for (size_t v: entry.second)
1222            std::cout << " " << v;
1223        std::cout << std::endl;
1224        // insert if not inserted
1225        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1226        if (res.second)
1227            continue; // added new
1228        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1229        res.first->second.routines.push_back(routineBlock);
1230        // add new ways
1231        for (size_t ssaId: entry.second)
1232            destEntry.insertValue(ssaId);
1233        std::cout << "    :";
1234        for (size_t v: destEntry)
1235            std::cout << " " << v;
1236        std::cout << std::endl;
1237    }
1238}
1239
1240// simple join last ssaid map
1241static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1242{
1243    for (const auto& entry: src)
1244    {
1245        std::cout << "  entry: " << entry.first.regVar << ":" <<
1246                cxuint(entry.first.index) << ":";
1247        for (size_t v: entry.second)
1248            std::cout << " " << v;
1249        std::cout << std::endl;
1250        auto res = dest.insert(entry); // find
1251        if (res.second)
1252            continue; // added new
1253        VectorSet<size_t>& destEntry = res.first->second;
1254        // add new ways
1255        for (size_t ssaId: entry.second)
1256            destEntry.insertValue(ssaId);
1257        std::cout << "    :";
1258        for (size_t v: destEntry)
1259            std::cout << " " << v;
1260        std::cout << std::endl;
1261    }
1262}
1263
1264// join last SSAIdMap of the routine including later routine call
1265// dest - dest last SSAId map, src - source lastSSAIdMap
1266// laterRdatas - data of subroutine/routine exeuted after src lastSSAIdMap state
1267static void joinLastSSAIdMapInt(LastSSAIdMap& dest, const LastSSAIdMap& src,
1268                    const LastSSAIdMap& laterRdataCurSSAIdMap,
1269                    const LastSSAIdMap& laterRdataLastSSAIdMap, bool loop)
1270{
1271    for (const auto& entry: src)
1272    {
1273        auto lsit = laterRdataLastSSAIdMap.find(entry.first);
1274        if (lsit != laterRdataLastSSAIdMap.end())
1275        {
1276            auto csit = laterRdataCurSSAIdMap.find(entry.first);
1277            if (csit != laterRdataCurSSAIdMap.end() && !csit->second.empty())
1278            {
1279                // if found in last ssa ID map,
1280                // but has first value (some way do not change SSAId)
1281                // then pass to add new ssaIds before this point
1282                if (!lsit->second.hasValue(csit->second[0]))
1283                    continue; // otherwise, skip
1284            }
1285        }
1286        std::cout << "  entry: " << entry.first.regVar << ":" <<
1287                cxuint(entry.first.index) << ":";
1288        for (size_t v: entry.second)
1289            std::cout << " " << v;
1290        std::cout << std::endl;
1291        auto res = dest.insert(entry); // find
1292        if (res.second)
1293            continue; // added new
1294        VectorSet<size_t>& destEntry = res.first->second;
1295        // add new ways
1296        for (size_t ssaId: entry.second)
1297            destEntry.insertValue(ssaId);
1298        std::cout << "    :";
1299        for (size_t v: destEntry)
1300            std::cout << " " << v;
1301        std::cout << std::endl;
1302    }
1303    if (!loop) // do not if loop
1304        joinLastSSAIdMap(dest, laterRdataLastSSAIdMap);
1305}
1306
1307static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1308                    const RoutineData& laterRdata, bool loop = false)
1309{
1310    joinLastSSAIdMapInt(dest, src, laterRdata.curSSAIdMap, laterRdata.lastSSAIdMap, loop);
1311}
1312
1313
1314// join routine data from child call with data from parent routine
1315// (just join child call from parent)
1316static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1317{
1318    // insert readBeforeWrite only if doesnt exists in destination
1319    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1320   
1321    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1322   
1323    for (const auto& entry: src.lastSSAIdMap)
1324    {
1325        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1326                cxuint(entry.first.index) << ":";
1327        for (size_t v: entry.second)
1328            std::cout << " " << v;
1329        std::cout << std::endl;
1330        auto res = dest.curSSAIdMap.insert(entry); // find
1331        VectorSet<size_t>& destEntry = res.first->second;
1332        if (!res.second)
1333        {
1334            // add new ways
1335            for (size_t ssaId: entry.second)
1336                destEntry.insertValue(ssaId);
1337        }
1338        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1339        if (rbwit != src.rbwSSAIdMap.end() &&
1340            // remove only if not in src lastSSAIdMap
1341            std::find(entry.second.begin(), entry.second.end(),
1342                      rbwit->second) == entry.second.end())
1343            destEntry.eraseValue(rbwit->second);
1344        std::cout << "    :";
1345        for (size_t v: destEntry)
1346            std::cout << " " << v;
1347        std::cout << std::endl;
1348    }
1349}
1350
1351// reduce retSSAIds for calls (for all read before write SSAIds for current code block)
1352static void reduceSSAIdsForCalls(FlowStackEntry& entry,
1353            const std::vector<CodeBlock>& codeBlocks,
1354            RetSSAIdMap& retSSAIdMap, RoutineMap& routineMap,
1355            SSAReplacesMap& ssaReplacesMap)
1356{
1357    if (retSSAIdMap.empty())
1358        return;
1359    LastSSAIdMap rbwSSAIdMap;
1360    std::unordered_set<AsmSingleVReg> reduced;
1361    std::unordered_set<AsmSingleVReg> changed;
1362    const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1363    // collect rbw SSAIds
1364    for (const NextBlock next: cblock.nexts)
1365        if (next.isCall)
1366        {
1367            auto it = routineMap.find(next.block); // must find
1368            for (const auto& rentry: it->second.rbwSSAIdMap)
1369                rbwSSAIdMap.insertSSAId(rentry.first,rentry.second);
1370           
1371        }
1372    for (const NextBlock next: cblock.nexts)
1373        if (next.isCall)
1374        {
1375            auto it = routineMap.find(next.block); // must find
1376            // add changed
1377            for (const auto& lentry: it->second.lastSSAIdMap)
1378                if (rbwSSAIdMap.find(lentry.first) == rbwSSAIdMap.end())
1379                    changed.insert(lentry.first);
1380        }
1381   
1382    // reduce SSAIds
1383    for (const auto& rentry: retSSAIdMap)
1384    {
1385        auto ssaIdsIt = rbwSSAIdMap.find(rentry.first);
1386        if (ssaIdsIt != rbwSSAIdMap.end())
1387        {
1388            const VectorSet<size_t>& ssaIds = ssaIdsIt->second;
1389            const VectorSet<size_t>& rssaIds = rentry.second.ssaIds;
1390            Array<size_t> outSSAIds(ssaIds.size() + rssaIds.size());
1391            std::copy(rssaIds.begin(), rssaIds.end(), outSSAIds.begin());
1392            std::copy(ssaIds.begin(), ssaIds.end(), outSSAIds.begin()+rssaIds.size());
1393           
1394            std::sort(outSSAIds.begin(), outSSAIds.end());
1395            outSSAIds.resize(std::unique(outSSAIds.begin(), outSSAIds.end()) -
1396                        outSSAIds.begin());
1397            size_t minSSAId = outSSAIds.front();
1398            if (outSSAIds.size() >= 2)
1399            {
1400                for (auto sit = outSSAIds.begin()+1; sit != outSSAIds.end(); ++sit)
1401                    insertReplace(ssaReplacesMap, rentry.first, *sit, minSSAId);
1402               
1403                std::cout << "calls retssa ssaid: " << rentry.first.regVar << ":" <<
1404                        rentry.first.index << std::endl;
1405            }
1406           
1407            for (BlockIndex rblock: rentry.second.routines)
1408                routineMap.find(rblock)->second.lastSSAIdMap[rentry.first] =
1409                            VectorSet<size_t>({ minSSAId });
1410            reduced.insert(rentry.first);
1411        }
1412    }
1413    for (const AsmSingleVReg& vreg: reduced)
1414        retSSAIdMap.erase(vreg);
1415    reduced.clear();
1416       
1417    for (const AsmSingleVReg& vreg: changed)
1418    {
1419        auto rit = retSSAIdMap.find(vreg);
1420        if (rit != retSSAIdMap.end())
1421        {
1422            // if modified
1423            // put before removing to revert for other ways after calls
1424            auto res = entry.prevRetSSAIdSets.insert(*rit);
1425            if (res.second)
1426                res.first->second = rit->second;
1427            // just remove, if some change without read before
1428            retSSAIdMap.erase(rit);
1429        }
1430    }
1431}
1432
1433// reduce retSSAIds (last SSAIds for regvar) while passing by code block
1434// and emits SSA replaces for these ssaids
1435static bool reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1436            RetSSAIdMap& retSSAIdMap, RoutineMap& routineMap,
1437            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
1438{
1439    SSAInfo& sinfo = ssaEntry.second;
1440    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1441    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1442    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1443    {
1444        auto& ssaIds = ssaIdsIt->second.ssaIds;
1445       
1446        if (ssaIds.size() >= 2)
1447        {
1448            // reduce to minimal ssaId from all calls
1449            std::sort(ssaIds.begin(), ssaIds.end());
1450            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1451            // insert SSA replaces
1452            size_t minSSAId = ssaIds.front();
1453            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1454                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1455            ssaId = minSSAId+1; // plus one
1456        }
1457        else if (ssaIds.size() == 1)
1458            ssaId = ssaIds.front()+1; // plus one
1459       
1460        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1461                ssaEntry.first.index << ": " << ssaId << std::endl;
1462        // replace smallest ssaId in routineMap lastSSAId entry
1463        // reduce SSAIds replaces
1464        for (BlockIndex rblock: ssaIdsIt->second.routines)
1465            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1466                            VectorSet<size_t>({ ssaId-1 });
1467        // finally remove from container (because obsolete)
1468        retSSAIdMap.erase(ssaIdsIt);
1469        return true;
1470    }
1471    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1472    {
1473        // put before removing to revert for other ways after calls
1474        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1475        if (res.second)
1476            res.first->second = ssaIdsIt->second;
1477        // just remove, if some change without read before
1478        retSSAIdMap.erase(ssaIdsIt);
1479    }
1480    return false;
1481}
1482
1483// update single current SSAId for routine and optionally lastSSAIdMap if returns
1484// has been encountered but not regvar
1485static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1486                size_t prevSSAId)
1487{
1488    const SSAInfo& sinfo = ssaEntry.second;
1489    bool beforeFirstAccess = true;
1490    // put first SSAId before write
1491    if (sinfo.readBeforeWrite)
1492    {
1493        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1494        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1495            // if already added
1496            beforeFirstAccess = false;
1497    }
1498   
1499    if (sinfo.ssaIdChange != 0)
1500    {
1501        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1502        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1503        // put last SSAId
1504        if (!res.second)
1505        {
1506            beforeFirstAccess = false;
1507            // if not inserted
1508            VectorSet<size_t>& ssaIds = res.first->second;
1509            ssaIds.eraseValue(prevSSAId);
1510            ssaIds.insertValue(sinfo.ssaIdLast);
1511        }
1512        // add readbefore if in previous returns if not added yet
1513        if (rdata.notFirstReturn && beforeFirstAccess)
1514        {
1515            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1516            for (auto& loopEnd: rdata.loopEnds)
1517                loopEnd.second.ssaIdMap.insert({ ssaEntry.first, { prevSSAId } });
1518        }
1519    }
1520    else
1521    {
1522        // insert read ssaid if no change
1523        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1524        if (!res.second)
1525        {
1526            VectorSet<size_t>& ssaIds = res.first->second;
1527            ssaIds.insertValue(prevSSAId);
1528        }
1529    }
1530}
1531
1532static void initializePrevRetSSAIds(const CodeBlock& cblock,
1533            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1534            const RetSSAIdMap& retSSAIdMap, const RoutineData& rdata,
1535            FlowStackEntry& entry)
1536{
1537    for (const auto& v: rdata.lastSSAIdMap)
1538    {
1539        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1540        if (!res.second)
1541            continue; // already added, do not change
1542        auto rfit = retSSAIdMap.find(v.first);
1543        if (rfit != retSSAIdMap.end())
1544            res.first->second = rfit->second;
1545       
1546        auto cbsit = cblock.ssaInfoMap.find(v.first);
1547        auto csit = curSSAIdMap.find(v.first);
1548        res.first->second.prevSSAId = cbsit!=cblock.ssaInfoMap.end() ?
1549                cbsit->second.ssaIdBefore : (csit!=curSSAIdMap.end() ? csit->second : 0);
1550    }
1551}
1552
1553// revert retSSAIdMap while leaving from code block
1554static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1555            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1556{
1557    // revert retSSAIdMap
1558    for (auto v: entry.prevRetSSAIdSets)
1559    {
1560        auto rfit = retSSAIdMap.find(v.first);
1561        if (rdata!=nullptr && rfit != retSSAIdMap.end())
1562        {
1563            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1564            for (size_t ssaId: rfit->second.ssaIds)
1565                ssaIds.eraseValue(ssaId);
1566        }
1567       
1568        if (!v.second.ssaIds.empty())
1569        {
1570            // just add if previously present
1571            if (rfit != retSSAIdMap.end())
1572                rfit->second = v.second;
1573            else
1574                retSSAIdMap.insert(v);
1575        }
1576        else // erase if empty
1577            retSSAIdMap.erase(v.first);
1578       
1579        if (rdata!=nullptr)
1580        {
1581            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1582            for (size_t ssaId: v.second.ssaIds)
1583                ssaIds.insertValue(ssaId);
1584            if (v.second.ssaIds.empty())
1585            {
1586                auto cit = curSSAIdMap.find(v.first);
1587                ssaIds.push_back((cit!=curSSAIdMap.end() ? cit->second : 1)-1);
1588            }
1589           
1590            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1591                    v.first.regVar << ":" << v.first.index << ":";
1592            for (size_t v: ssaIds)
1593                std::cout << " " << v;
1594            std::cout << std::endl;
1595        }
1596        curSSAIdMap[v.first] = v.second.prevSSAId;
1597    }
1598}
1599
1600// update current SSAId in curSSAIdMap for routine while leaving from code block
1601static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1602            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1603{
1604    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1605    std::cout << " pushentry " << entry.blockIndex << ": " <<
1606                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1607    for (size_t v: ssaIds)
1608        std::cout << " " << v;
1609    std::cout << std::endl;
1610   
1611    // if cblock with some children
1612    if (nextSSAId != curSSAId)
1613        ssaIds.eraseValue(nextSSAId-1);
1614   
1615    // push previous SSAId to lastSSAIdMap (later will be replaced)
1616    ssaIds.insertValue(curSSAId-1);
1617   
1618    std::cout << " popentry " << entry.blockIndex << ": " <<
1619                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1620    for (size_t v: ssaIds)
1621        std::cout << " " << v;
1622    std::cout << std::endl;
1623}
1624
1625static bool tryAddLoopEnd(const FlowStackEntry& entry, BlockIndex routineBlock,
1626                RoutineData& rdata, bool isLoop, bool noMainLoop)
1627{
1628    if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1629    {
1630        // handle loops
1631        std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1632        // add to routine data loopEnds
1633        auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1634        if (loopsit2 != rdata.loopEnds.end())
1635        {
1636            if (!loopsit2->second.passed)
1637                // still in loop join ssaid map
1638                joinLastSSAIdMap(loopsit2->second.ssaIdMap, rdata.curSSAIdMap);
1639        }
1640        else
1641            rdata.loopEnds.insert({ entry.blockIndex, { rdata.curSSAIdMap, false } });
1642        return true;
1643    }
1644    return false;
1645}
1646
1647
1648static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1649        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1650        const std::unordered_set<BlockIndex>& loopBlocks,
1651        const ResSecondPointsToCache& subroutToCache,
1652        SimpleCache<BlockIndex, RoutineData>& subroutinesCache,
1653        const RoutineMap& routineMap, RoutineData& rdata,
1654        BlockIndex routineBlock, bool noMainLoop = false,
1655        const CBlockBitPool& prevFlowStackBlocks = {})
1656{
1657    std::cout << "--------- createRoutineData ----------------\n";
1658    CBlockBitPool visited(codeBlocks.size(), false);
1659   
1660    VectorSet<BlockIndex> activeLoops;
1661    SubrLoopsMap subrLoopsMap;
1662    SubrLoopsMap loopSubrsMap;
1663    RoutineMap subrDataForLoopMap;
1664    std::deque<FlowStackEntry> flowStack;
1665    CBlockBitPool flowStackBlocks(codeBlocks.size(), false);
1666    if (!prevFlowStackBlocks.empty())
1667        flowStackBlocks = prevFlowStackBlocks;
1668    // last SSA ids map from returns
1669    RetSSAIdMap retSSAIdMap;
1670    flowStack.push_back({ routineBlock, 0 });
1671    flowStackBlocks[routineBlock] = true;
1672   
1673    while (!flowStack.empty())
1674    {
1675        FlowStackEntry& entry = flowStack.back();
1676        const CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
1677       
1678        auto addSubroutine = [&](
1679            std::unordered_map<BlockIndex, LoopSSAIdMap>::const_iterator loopsit2,
1680            bool applyToMainRoutine)
1681        {
1682            if (subroutinesCache.hasKey(entry.blockIndex))
1683            {
1684                // if already put, just applyToMainRoutine if needed
1685                if (applyToMainRoutine &&
1686                    loopBlocks.find(entry.blockIndex) != loopBlocks.end() &&
1687                    loopsit2 != rdata.loopEnds.end())
1688                {
1689                    RoutineData* subRdata = subroutinesCache.use(entry.blockIndex);
1690                    joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1691                                        *subRdata, true);
1692                }
1693                return;
1694            }
1695           
1696            RoutineData subrData;
1697            const bool oldFB = flowStackBlocks[entry.blockIndex];
1698            flowStackBlocks[entry.blockIndex] = !oldFB;
1699            createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1700                subroutinesCache, routineMap, subrData, entry.blockIndex, true,
1701                flowStackBlocks);
1702            RoutineData subrDataCopy;
1703            flowStackBlocks[entry.blockIndex] = oldFB;
1704           
1705            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1706            {   // leave from loop point
1707                std::cout << "   loopfound " << entry.blockIndex << std::endl;
1708                if (loopsit2 != rdata.loopEnds.end())
1709                {
1710                    subrDataCopy = subrData;
1711                    subrDataForLoopMap.insert({ entry.blockIndex, subrDataCopy });
1712                    std::cout << "   loopssaId2Map: " <<
1713                            entry.blockIndex << std::endl;
1714                    joinLastSSAIdMap(subrData.lastSSAIdMap,
1715                            loopsit2->second.ssaIdMap, subrData, true);
1716                    std::cout << "   loopssaIdMap2End: " << std::endl;
1717                    if (applyToMainRoutine)
1718                        joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second.ssaIdMap,
1719                                        subrDataCopy, true);
1720                }
1721            }
1722           
1723            // apply loop to subroutines
1724            auto it = loopSubrsMap.find(entry.blockIndex);
1725            if (it != loopSubrsMap.end())
1726            {
1727                std::cout << "    found loopsubrsmap: " << entry.blockIndex << ":";
1728                for (BlockIndex subr: it->second)
1729                {
1730                    std::cout << " " << subr;
1731                    RoutineData* subrData2 = subroutinesCache.use(subr);
1732                    if (subrData2 == nullptr)
1733                        continue;
1734                    RoutineData subrData2Copy = *subrData2;
1735                    std::cout << "*";
1736                    joinLastSSAIdMap(subrData2Copy.lastSSAIdMap,
1737                            loopsit2->second.ssaIdMap, subrDataCopy, false);
1738                    // reinsert subroutine into subroutine cache
1739                    subrData2Copy.calculateWeight();
1740                    subroutinesCache.put(subr, subrData2Copy);
1741                }
1742                std::cout << "\n";
1743            }
1744            // apply loops to this subroutine
1745            auto it2 = subrLoopsMap.find(entry.blockIndex);
1746            if (it2 != subrLoopsMap.end())
1747            {
1748                std::cout << "    found subrloopsmap: " << entry.blockIndex << ":";
1749                for (auto lit2 = it2->second.rbegin(); lit2 != it2->second.rend(); ++lit2)
1750                {
1751                    BlockIndex loop = *lit2;
1752                    auto loopsit3 = rdata.loopEnds.find(loop);
1753                    if (loopsit3 == rdata.loopEnds.end() ||
1754                        activeLoops.hasValue(loop))
1755                        continue;
1756                    std::cout << " " << loop;
1757                    auto  itx = subrDataForLoopMap.find(loop);
1758                    if (itx != subrDataForLoopMap.end())
1759                        joinLastSSAIdMap(subrData.lastSSAIdMap,
1760                                loopsit3->second.ssaIdMap, itx->second, false);
1761                }
1762                std::cout << "\n";
1763            }
1764           
1765            subrData.calculateWeight();
1766            subroutinesCache.put(entry.blockIndex, subrData);
1767        };
1768       
1769        if (entry.nextIndex == 0)
1770        {
1771            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1772           
1773            if (!prevFlowStackBlocks.empty() && prevFlowStackBlocks[entry.blockIndex])
1774            {
1775                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1776               
1777                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1778                flowStack.pop_back();
1779                continue;
1780            }
1781           
1782            // process current block
1783            //if (/*cachedRdata != nullptr &&*/
1784                //visited[entry.blockIndex] && flowStack.size() > 1)
1785            const RoutineData* cachedRdata = nullptr;
1786           
1787            if (routineBlock != entry.blockIndex)
1788            {
1789                cachedRdata = subroutinesCache.use(entry.blockIndex);
1790                if (cachedRdata == nullptr)
1791                {
1792                    // try in routine map
1793                    auto rit = routineMap.find(entry.blockIndex);
1794                    if (rit != routineMap.end())
1795                        cachedRdata = &rit->second;
1796                }
1797                if (!isLoop && visited[entry.blockIndex] && cachedRdata == nullptr &&
1798                    subroutToCache.count(entry.blockIndex)!=0)
1799                {
1800                    auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1801                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1802                    addSubroutine(loopsit2, false);
1803                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1804                }
1805            }
1806           
1807            if (cachedRdata != nullptr)
1808            {
1809                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1810                std::cout << "procret2: " << entry.blockIndex << std::endl;
1811                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1812                // get not given rdata curSSAIdMap ssaIds but present in cachedRdata
1813                // curSSAIdMap
1814                for (const auto& entry: cachedRdata->curSSAIdMap)
1815                    if (rdata.curSSAIdMap.find(entry.first) == rdata.curSSAIdMap.end())
1816                    {
1817                        auto cit = curSSAIdMap.find(entry.first);
1818                        size_t prevSSAId = (cit!=curSSAIdMap.end() ? cit->second : 1)-1;
1819                        rdata.curSSAIdMap.insert({ entry.first, { prevSSAId } });
1820                       
1821                        if (rdata.notFirstReturn)
1822                        {
1823                            rdata.lastSSAIdMap.insertSSAId(entry.first, prevSSAId);
1824                            for (auto& loopEnd: rdata.loopEnds)
1825                                loopEnd.second.ssaIdMap.
1826                                        insertSSAId(entry.first, prevSSAId);
1827                        }
1828                    }
1829               
1830                // join loopEnds
1831                for (const auto& loopEnd: cachedRdata->loopEnds)
1832                {
1833                    auto res = rdata.loopEnds.insert({ loopEnd.first, LoopSSAIdMap{} });
1834                    // true - do not add cached rdata loopend, because it was added
1835                    joinLastSSAIdMapInt(res.first->second.ssaIdMap, rdata.curSSAIdMap,
1836                                cachedRdata->curSSAIdMap, loopEnd.second.ssaIdMap, true);
1837                }
1838                std::cout << "procretend2" << std::endl;
1839                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1840                flowStack.pop_back();
1841                continue;
1842            }
1843            else if (!visited[entry.blockIndex])
1844            {
1845                // set up loops for which subroutine is present
1846                if (subroutToCache.count(entry.blockIndex)!=0 && !activeLoops.empty())
1847                {
1848                    subrLoopsMap.insert({ entry.blockIndex, activeLoops });
1849                    for (BlockIndex loop: activeLoops)
1850                    {
1851                        auto res = loopSubrsMap.insert({ loop, { entry.blockIndex } });
1852                        if (!res.second)
1853                            res.first->second.insertValue(entry.blockIndex);
1854                    }
1855                }
1856               
1857                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1858                    activeLoops.insertValue(entry.blockIndex);
1859                std::cout << "proc: " << entry.blockIndex << std::endl;
1860                visited[entry.blockIndex] = true;
1861               
1862                for (const auto& ssaEntry: cblock.ssaInfoMap)
1863                    if (ssaEntry.first.regVar != nullptr)
1864                    {
1865                        // put data to routine data
1866                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1867                       
1868                        if (ssaEntry.second.ssaIdChange!=0)
1869                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1870                    }
1871            }
1872            else
1873            {
1874                tryAddLoopEnd(entry, routineBlock, rdata, isLoop, noMainLoop);
1875                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1876                flowStack.pop_back();
1877                continue;
1878            }
1879        }
1880       
1881        // join and skip calls
1882        for (; entry.nextIndex < cblock.nexts.size() &&
1883                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1884            joinRoutineData(rdata, routineMap.find(
1885                            cblock.nexts[entry.nextIndex].block)->second);
1886       
1887        if (entry.nextIndex < cblock.nexts.size())
1888        {
1889            const BlockIndex nextBlock = cblock.nexts[entry.nextIndex].block;
1890            flowStack.push_back({ nextBlock, 0 });
1891            // negate - if true (already in flowstack, then popping keep this state)
1892            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1893            entry.nextIndex++;
1894        }
1895        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1896                // if have any call then go to next block
1897                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1898                 !cblock.haveReturn && !cblock.haveEnd)
1899        {
1900            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1901            {
1902                for (const NextBlock& next: cblock.nexts)
1903                    if (next.isCall)
1904                    {
1905                        //std::cout << "joincall:"<< next.block << std::endl;
1906                        auto it = routineMap.find(next.block); // must find
1907                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1908                                    it->second, entry);
1909                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1910                    }
1911            }
1912            const BlockIndex nextBlock = entry.blockIndex+1;
1913            flowStack.push_back({ nextBlock, 0 });
1914            // negate - if true (already in flowstack, then popping keep this state)
1915            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1916            entry.nextIndex++;
1917        }
1918        else
1919        {
1920            std::cout << "popstart: " << entry.blockIndex << std::endl;
1921            if (cblock.haveReturn)
1922            {
1923                std::cout << "procret: " << entry.blockIndex << std::endl;
1924                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1925                std::cout << "procretend" << std::endl;
1926                rdata.notFirstReturn = true;
1927            }
1928           
1929            // revert retSSAIdMap
1930            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
1931            //
1932           
1933            for (const auto& ssaEntry: cblock.ssaInfoMap)
1934            {
1935                if (ssaEntry.first.regVar == nullptr)
1936                    continue;
1937                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1938                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1939                    ssaEntry.second.ssaIdLast+1 : curSSAId;
1940                curSSAIdMap[ssaEntry.first] = curSSAId;
1941               
1942                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1943                            ":" << ssaEntry.first.index << ": " <<
1944                            nextSSAId << ", " << curSSAId << std::endl;
1945               
1946                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1947            }
1948           
1949            activeLoops.eraseValue(entry.blockIndex);
1950           
1951            auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1952            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1953            {
1954                if (loopsit2 != rdata.loopEnds.end())
1955                {
1956                    std::cout << "   mark loopblocks passed: " <<
1957                                entry.blockIndex << std::endl;
1958                    // mark that loop has passed fully
1959                    loopsit2->second.passed = true;
1960                }
1961                else
1962                    std::cout << "   loopblocks nopassed: " <<
1963                                entry.blockIndex << std::endl;
1964            }
1965           
1966            if ((!noMainLoop || flowStack.size() > 1) &&
1967                subroutToCache.count(entry.blockIndex)!=0)
1968            { //put to cache
1969                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
1970                addSubroutine(loopsit2, true);
1971            }
1972           
1973            flowStackBlocks[entry.blockIndex] = false;
1974            std::cout << "pop: " << entry.blockIndex << std::endl;
1975            flowStack.pop_back();
1976        }
1977    }
1978    std::cout << "--------- createRoutineData end ------------\n";
1979}
1980
1981
1982void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1983{
1984    if (codeBlocks.empty())
1985        return;
1986    usageHandler.rewind();
1987    auto cbit = codeBlocks.begin();
1988    AsmRegVarUsage rvu;
1989    if (!usageHandler.hasNext())
1990        return; // do nothing if no regusages
1991    rvu = usageHandler.nextUsage();
1992   
1993    cxuint regRanges[MAX_REGTYPES_NUM*2];
1994    cxuint realRegsCount[MAX_REGTYPES_NUM];
1995    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
1996    size_t regTypesNum;
1997    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1998   
1999    while (true)
2000    {
2001        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
2002        {
2003            cbit->usagePos = usageHandler.getReadPos();
2004            ++cbit;
2005        }
2006        if (cbit == codeBlocks.end())
2007            break;
2008        // skip rvu's before codeblock
2009        while (rvu.offset < cbit->start && usageHandler.hasNext())
2010            rvu = usageHandler.nextUsage();
2011        if (rvu.offset < cbit->start)
2012            break;
2013       
2014        cbit->usagePos = usageHandler.getReadPos();
2015        while (rvu.offset < cbit->end)
2016        {
2017            // process rvu
2018            // only if regVar
2019            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2020            {
2021                auto res = cbit->ssaInfoMap.insert(
2022                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
2023               
2024                SSAInfo& sinfo = res.first->second;
2025                if (res.second)
2026                    sinfo.firstPos = rvu.offset;
2027                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
2028                    // if first write RVU instead read RVU
2029                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
2030                    sinfo.readBeforeWrite = true;
2031                /* change SSA id only for write-only regvars -
2032                 *   read-write place can not have two different variables */
2033                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
2034                    sinfo.ssaIdChange++;
2035                if (rvu.regVar==nullptr)
2036                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
2037                            sinfo.ssaId = sinfo.ssaIdLast = 0;
2038            }
2039            // get next rvusage
2040            if (!usageHandler.hasNext())
2041                break;
2042            rvu = usageHandler.nextUsage();
2043        }
2044        ++cbit;
2045    }
2046   
2047    size_t rbwCount = 0;
2048    size_t wrCount = 0;
2049   
2050    SimpleCache<BlockIndex, RoutineData> subroutinesCache(codeBlocks.size()<<3);
2051   
2052    std::deque<CallStackEntry> callStack;
2053    std::deque<FlowStackEntry> flowStack;
2054    // total SSA count
2055    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
2056    // last SSA ids map from returns
2057    RetSSAIdMap retSSAIdMap;
2058    // last SSA ids in current way in code flow
2059    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
2060    // routine map - routine datas map, value - last SSA ids map
2061    RoutineMap routineMap;
2062    // key - current res first key, value - previous first key and its flowStack pos
2063    PrevWaysIndexMap prevWaysIndexMap;
2064    // to track ways last block indices pair: block index, flowStackPos)
2065    std::pair<BlockIndex, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
2066    CBlockBitPool isRoutineGen(codeBlocks.size(), false);
2067   
2068    CBlockBitPool waysToCache(codeBlocks.size(), false);
2069    CBlockBitPool flowStackBlocks(codeBlocks.size(), false);
2070    // subroutToCache - true if given block begin subroutine to cache
2071    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
2072    CBlockBitPool visited(codeBlocks.size(), false);
2073    flowStack.push_back({ 0, 0 });
2074    flowStackBlocks[0] = true;
2075    std::unordered_set<BlockIndex> callBlocks;
2076    std::unordered_set<BlockIndex> loopBlocks;
2077    std::unordered_set<size_t> recurseBlocks;
2078   
2079    while (!flowStack.empty())
2080    {
2081        FlowStackEntry& entry = flowStack.back();
2082        CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
2083       
2084        if (entry.nextIndex == 0)
2085        {
2086            // process current block
2087            if (!visited[entry.blockIndex])
2088            {
2089                std::cout << "proc: " << entry.blockIndex << std::endl;
2090                visited[entry.blockIndex] = true;
2091               
2092                for (auto& ssaEntry: cblock.ssaInfoMap)
2093                {
2094                    SSAInfo& sinfo = ssaEntry.second;
2095                    if (ssaEntry.first.regVar==nullptr)
2096                    {
2097                        // TODO - pass registers through SSA marking and resolving
2098                        sinfo.ssaIdChange = 0; // zeroing SSA changes
2099                        continue; // no change for registers
2100                    }
2101                   
2102                    bool reducedSSAId = reduceSSAIds(curSSAIdMap, retSSAIdMap,
2103                                routineMap, ssaReplacesMap, entry, ssaEntry);
2104                   
2105                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
2106                   
2107                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
2108                    if (totalSSACount == 0)
2109                    {
2110                        // first read before write at all, need change totalcount, ssaId
2111                        ssaId++;
2112                        totalSSACount++;
2113                    }
2114                   
2115                    sinfo.ssaId = totalSSACount;
2116                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
2117                    sinfo.ssaIdBefore = ssaId-1;
2118                   
2119                    totalSSACount += sinfo.ssaIdChange;
2120                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
2121                    //totalSSACount = std::max(totalSSACount, ssaId);
2122                    if (!reducedSSAId || sinfo.ssaIdChange!=0)
2123                        ssaId = totalSSACount;
2124                   
2125                    // count read before writes (for cache weight)
2126                    if (sinfo.readBeforeWrite)
2127                        rbwCount++;
2128                    if (sinfo.ssaIdChange!=0)
2129                        wrCount++;
2130                }
2131            }
2132            else
2133            {
2134                // handle caching for res second point
2135                cblocksToCache.increase(entry.blockIndex);
2136                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
2137                            cblocksToCache.count(entry.blockIndex) << std::endl;
2138                // back, already visited
2139                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
2140                flowStack.pop_back();
2141               
2142                BlockIndex curWayBIndex = flowStack.back().blockIndex;
2143                if (lastCommonCacheWayPoint.first != SIZE_MAX)
2144                {
2145                    // mark point of way to cache (res first point)
2146                    waysToCache[lastCommonCacheWayPoint.first] = true;
2147                    std::cout << "mark to pfcache " <<
2148                            lastCommonCacheWayPoint.first << ", " <<
2149                            curWayBIndex << std::endl;
2150                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
2151                }
2152                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
2153                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
2154                continue;
2155            }
2156        }
2157       
2158        if (!callStack.empty() &&
2159            entry.blockIndex == callStack.back().callBlock &&
2160            entry.nextIndex-1 == callStack.back().callNextIndex)
2161        {
2162            std::cout << " ret: " << entry.blockIndex << std::endl;
2163            const BlockIndex routineBlock = callStack.back().routineBlock;
2164            RoutineData& prevRdata = routineMap.find(routineBlock)->second;
2165            if (!isRoutineGen[routineBlock])
2166            {
2167                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks,
2168                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
2169                            routineBlock);
2170                //prevRdata.compare(myRoutineData);
2171                isRoutineGen[routineBlock] = true;
2172            }
2173           
2174            callStack.pop_back(); // just return from call
2175            callBlocks.erase(routineBlock);
2176        }
2177       
2178        if (entry.nextIndex < cblock.nexts.size())
2179        {
2180            bool isCall = false;
2181            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
2182            if (cblock.nexts[entry.nextIndex].isCall)
2183            {
2184                std::cout << " call: " << entry.blockIndex << std::endl;
2185                if (!callBlocks.insert(nextBlock).second)
2186                {
2187                    // if already called (then it is recursion)
2188                    recurseBlocks.insert(nextBlock);
2189                    std::cout << "   -- recursion: " << nextBlock << std::endl;
2190                }
2191               
2192                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
2193                routineMap.insert({ nextBlock, { } });
2194                isCall = true;
2195            }
2196           
2197            flowStack.push_back({ nextBlock, 0, isCall });
2198            if (flowStackBlocks[nextBlock])
2199            {
2200                if (!cblock.nexts[entry.nextIndex].isCall)
2201                    loopBlocks.insert(nextBlock);
2202                flowStackBlocks[nextBlock] = false; // keep to inserted in popping
2203            }
2204            else
2205                flowStackBlocks[nextBlock] = true;
2206            entry.nextIndex++;
2207        }
2208        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2209                // if have any call then go to next block
2210                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2211                 !cblock.haveReturn && !cblock.haveEnd)
2212        {
2213            if (entry.nextIndex!=0) // if back from calls (just return from calls)
2214            {
2215                reduceSSAIdsForCalls(entry, codeBlocks, retSSAIdMap, routineMap,
2216                                     ssaReplacesMap);
2217                //
2218                for (const NextBlock& next: cblock.nexts)
2219                    if (next.isCall)
2220                    {
2221                        //std::cout << "joincall:"<< next.block << std::endl;
2222                        auto it = routineMap.find(next.block); // must find
2223                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
2224                                    it->second, entry);
2225                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
2226                    }
2227            }
2228            flowStack.push_back({ entry.blockIndex+1, 0, false });
2229            if (flowStackBlocks[entry.blockIndex+1])
2230            {
2231                loopBlocks.insert(entry.blockIndex+1);
2232                 // keep to inserted in popping
2233                flowStackBlocks[entry.blockIndex+1] = false;
2234            }
2235            else
2236                flowStackBlocks[entry.blockIndex+1] = true;
2237            entry.nextIndex++;
2238        }
2239        else // back
2240        {
2241            RoutineData* rdata = nullptr;
2242            if (!callStack.empty())
2243                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
2244           
2245            // revert retSSAIdMap
2246            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
2247            //
2248           
2249            for (const auto& ssaEntry: cblock.ssaInfoMap)
2250            {
2251                if (ssaEntry.first.regVar == nullptr)
2252                    continue;
2253               
2254                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
2255                const size_t nextSSAId = curSSAId;
2256                curSSAId = ssaEntry.second.ssaIdBefore+1;
2257               
2258                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2259                            ":" << ssaEntry.first.index << ": " <<
2260                            nextSSAId << ", " << curSSAId << std::endl;
2261            }
2262           
2263            std::cout << "pop: " << entry.blockIndex << std::endl;
2264            flowStackBlocks[entry.blockIndex] = false;
2265            flowStack.pop_back();
2266            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
2267                    lastCommonCacheWayPoint.second >= flowStack.size())
2268            {
2269                lastCommonCacheWayPoint =
2270                        { flowStack.back().blockIndex, flowStack.size()-1 };
2271                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
2272            }
2273           
2274        }
2275    }
2276   
2277    /**********
2278     * after that, we find points to resolve conflicts
2279     **********/
2280    flowStack.clear();
2281    std::deque<FlowStackEntry2> flowStack2;
2282   
2283    std::fill(visited.begin(), visited.end(), false);
2284    flowStack2.push_back({ 0, 0 });
2285   
2286    SimpleCache<BlockIndex, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
2287    SimpleCache<BlockIndex, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
2288   
2289    while (!flowStack2.empty())
2290    {
2291        FlowStackEntry2& entry = flowStack2.back();
2292        CodeBlock& cblock = codeBlocks[entry.blockIndex.index];
2293       
2294        if (entry.nextIndex == 0)
2295        {
2296            // process current block
2297            if (!visited[entry.blockIndex])
2298                visited[entry.blockIndex] = true;
2299            else
2300            {
2301                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
2302                            prevWaysIndexMap, waysToCache, cblocksToCache,
2303                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
2304               
2305                // back, already visited
2306                flowStack2.pop_back();
2307                continue;
2308            }
2309        }
2310       
2311        if (entry.nextIndex < cblock.nexts.size())
2312        {
2313            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2314            entry.nextIndex++;
2315        }
2316        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2317                // if have any call then go to next block
2318                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2319                 !cblock.haveReturn && !cblock.haveEnd)
2320        {
2321            flowStack2.push_back({ entry.blockIndex+1, 0 });
2322            entry.nextIndex++;
2323        }
2324        else // back
2325        {
2326            if (cblocksToCache.count(entry.blockIndex)==2 &&
2327                !resSecondPointsCache.hasKey(entry.blockIndex))
2328                // add to cache
2329                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
2330                            entry.blockIndex);
2331            flowStack2.pop_back();
2332        }
2333    }
2334}
2335
2336void AsmRegAllocator::applySSAReplaces()
2337{
2338    /* prepare SSA id replaces */
2339    struct MinSSAGraphNode
2340    {
2341        size_t minSSAId;
2342        bool visited;
2343        std::unordered_set<size_t> nexts;
2344        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
2345    };
2346    struct MinSSAGraphStackEntry
2347    {
2348        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
2349        std::unordered_set<size_t>::const_iterator nextIt;
2350        size_t minSSAId;
2351    };
2352   
2353    for (auto& entry: ssaReplacesMap)
2354    {
2355        VectorSet<SSAReplace>& replaces = entry.second;
2356        std::sort(replaces.begin(), replaces.end());
2357        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
2358        VectorSet<SSAReplace> newReplaces;
2359       
2360        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
2361       
2362        auto it = replaces.begin();
2363        while (it != replaces.end())
2364        {
2365            auto itEnd = std::upper_bound(it, replaces.end(),
2366                            std::make_pair(it->first, size_t(SIZE_MAX)));
2367            {
2368                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2369                node.minSSAId = std::min(node.minSSAId, it->second);
2370                for (auto it2 = it; it2 != itEnd; ++it2)
2371                    node.nexts.insert(it->second);
2372            }
2373            it = itEnd;
2374        }
2375        // propagate min value
2376        std::stack<MinSSAGraphStackEntry> minSSAStack;
2377        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
2378                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
2379        {
2380            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2381            // traverse with minimalize SSA id
2382            while (!minSSAStack.empty())
2383            {
2384                MinSSAGraphStackEntry& entry = minSSAStack.top();
2385                MinSSAGraphNode& node = entry.nodeIt->second;
2386                bool toPop = false;
2387                if (entry.nextIt == node.nexts.begin())
2388                {
2389                    if (!node.visited)
2390                        node.visited = true;
2391                    else
2392                        toPop = true;
2393                }
2394                if (!toPop && entry.nextIt != node.nexts.end())
2395                {
2396                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2397                    if (nodeIt != ssaGraphNodes.end())
2398                    {
2399                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2400                                nodeIt->second.minSSAId });
2401                    }
2402                    ++entry.nextIt;
2403                }
2404                else
2405                {
2406                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2407                    minSSAStack.pop();
2408                    if (!minSSAStack.empty())
2409                    {
2410                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2411                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2412                    }
2413                }
2414            }
2415            // skip visited nodes
2416            while (ssaGraphNodeIt != ssaGraphNodes.end())
2417                if (!ssaGraphNodeIt->second.visited)
2418                    break;
2419        }
2420       
2421        for (const auto& entry: ssaGraphNodes)
2422            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2423       
2424        std::sort(newReplaces.begin(), newReplaces.end());
2425        entry.second = newReplaces;
2426    }
2427   
2428    /* apply SSA id replaces */
2429    for (CodeBlock& cblock: codeBlocks)
2430        for (auto& ssaEntry: cblock.ssaInfoMap)
2431        {
2432            auto it = ssaReplacesMap.find(ssaEntry.first);
2433            if (it == ssaReplacesMap.end())
2434                continue;
2435            SSAInfo& sinfo = ssaEntry.second;
2436            VectorSet<SSAReplace>& replaces = it->second;
2437            if (sinfo.readBeforeWrite)
2438            {
2439                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2440                                 ssaEntry.second.ssaIdBefore);
2441                if (rit != replaces.end())
2442                    sinfo.ssaIdBefore = rit->second; // replace
2443            }
2444            if (sinfo.ssaIdFirst != SIZE_MAX)
2445            {
2446                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2447                                 ssaEntry.second.ssaIdFirst);
2448                if (rit != replaces.end())
2449                    sinfo.ssaIdFirst = rit->second; // replace
2450            }
2451            if (sinfo.ssaIdLast != SIZE_MAX)
2452            {
2453                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2454                                 ssaEntry.second.ssaIdLast);
2455                if (rit != replaces.end())
2456                    sinfo.ssaIdLast = rit->second; // replace
2457            }
2458        }
2459}
2460
2461struct Liveness
2462{
2463    std::map<size_t, size_t> l;
2464   
2465    Liveness() { }
2466   
2467    void clear()
2468    { l.clear(); }
2469   
2470    void expand(size_t k)
2471    {
2472        if (l.empty())
2473            l.insert(std::make_pair(k, k+1));
2474        else
2475        {
2476            auto it = l.end();
2477            --it;
2478            it->second = k+1;
2479        }
2480    }
2481    void newRegion(size_t k)
2482    {
2483        if (l.empty())
2484            l.insert(std::make_pair(k, k));
2485        else
2486        {
2487            auto it = l.end();
2488            --it;
2489            if (it->first != k && it->second != k)
2490                l.insert(std::make_pair(k, k));
2491        }
2492    }
2493   
2494    void insert(size_t k, size_t k2)
2495    {
2496        auto it1 = l.lower_bound(k);
2497        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2498            --it1;
2499        if (it1->second < k)
2500            ++it1;
2501        auto it2 = l.lower_bound(k2);
2502        if (it1!=it2)
2503        {
2504            k = std::min(k, it1->first);
2505            k2 = std::max(k2, (--it2)->second);
2506            l.erase(it1, it2);
2507        }
2508        l.insert(std::make_pair(k, k2));
2509    }
2510   
2511    bool contain(size_t t) const
2512    {
2513        auto it = l.lower_bound(t);
2514        if (it==l.begin() && it->first>t)
2515            return false;
2516        if (it==l.end() || it->first>t)
2517            --it;
2518        return it->first<=t && t<it->second;
2519    }
2520   
2521    bool common(const Liveness& b) const
2522    {
2523        auto i = l.begin();
2524        auto j = b.l.begin();
2525        for (; i != l.end() && j != b.l.end();)
2526        {
2527            if (i->first==i->second)
2528            {
2529                ++i;
2530                continue;
2531            }
2532            if (j->first==j->second)
2533            {
2534                ++j;
2535                continue;
2536            }
2537            if (i->first<j->first)
2538            {
2539                if (i->second > j->first)
2540                    return true; // common place
2541                ++i;
2542            }
2543            else
2544            {
2545                if (i->first < j->second)
2546                    return true; // common place
2547                ++j;
2548            }
2549        }
2550        return false;
2551    }
2552};
2553
2554typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2555
2556static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2557            const AsmSingleVReg& svreg)
2558{
2559    cxuint regType; // regtype
2560    if (svreg.regVar!=nullptr)
2561        regType = svreg.regVar->type;
2562    else
2563        for (regType = 0; regType < regTypesNum; regType++)
2564            if (svreg.index >= regRanges[regType<<1] &&
2565                svreg.index < regRanges[(regType<<1)+1])
2566                break;
2567    return regType;
2568}
2569
2570static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2571        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2572        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2573{
2574    size_t ssaId;
2575    if (svreg.regVar==nullptr)
2576        ssaId = 0;
2577    else if (ssaIdIdx==0)
2578        ssaId = ssaInfo.ssaIdBefore;
2579    else if (ssaIdIdx==1)
2580        ssaId = ssaInfo.ssaIdFirst;
2581    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2582        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2583    else // last
2584        ssaId = ssaInfo.ssaIdLast;
2585   
2586    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2587    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2588    const std::vector<size_t>& ssaIdIndices =
2589                vregIndexMap.find(svreg)->second;
2590    return livenesses[regType][ssaIdIndices[ssaId]];
2591}
2592
2593typedef std::deque<FlowStackEntry3>::const_iterator FlowStackCIter;
2594
2595struct CLRX_INTERNAL VRegLastPos
2596{
2597    size_t ssaId; // last SSA id
2598    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2599};
2600
2601/* TODO: add handling calls
2602 * handle many start points in this code (for example many kernel's in same code)
2603 * replace sets by vector, and sort and remove same values on demand
2604 */
2605
2606typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2607
2608static void putCrossBlockLivenesses(const std::deque<FlowStackEntry3>& flowStack,
2609        const std::vector<CodeBlock>& codeBlocks,
2610        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2611        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2612        size_t regTypesNum, const cxuint* regRanges)
2613{
2614    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2615    for (const auto& entry: cblock.ssaInfoMap)
2616        if (entry.second.readBeforeWrite)
2617        {
2618            // find last
2619            auto lvrit = lastVRegMap.find(entry.first);
2620            if (lvrit == lastVRegMap.end())
2621                continue; // not found
2622            const VRegLastPos& lastPos = lvrit->second;
2623            FlowStackCIter flit = lastPos.blockChain.back();
2624            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2625            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2626            const std::vector<size_t>& ssaIdIndices =
2627                        vregIndexMap.find(entry.first)->second;
2628            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2629            FlowStackCIter flitEnd = flowStack.end();
2630            --flitEnd; // before last element
2631            // insert live time to last seen position
2632            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2633            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2634            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2635                    toLiveCvt + lastBlk.end);
2636            for (++flit; flit != flitEnd; ++flit)
2637            {
2638                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2639                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2640                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2641            }
2642        }
2643}
2644
2645static void putCrossBlockForLoop(const std::deque<FlowStackEntry3>& flowStack,
2646        const std::vector<CodeBlock>& codeBlocks,
2647        const Array<size_t>& codeBlockLiveTimes,
2648        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2649        size_t regTypesNum, const cxuint* regRanges)
2650{
2651    auto flitStart = flowStack.end();
2652    --flitStart;
2653    size_t curBlock = flitStart->blockIndex;
2654    // find step in way
2655    while (flitStart->blockIndex != curBlock) --flitStart;
2656    auto flitEnd = flowStack.end();
2657    --flitEnd;
2658    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2659   
2660    // collect var to check
2661    size_t flowPos = 0;
2662    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2663    {
2664        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2665        for (const auto& entry: cblock.ssaInfoMap)
2666        {
2667            const SSAInfo& sinfo = entry.second;
2668            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2669                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2670            varMap[entry.first] = { lastSSAId, flowPos };
2671        }
2672    }
2673    // find connections
2674    flowPos = 0;
2675    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2676    {
2677        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2678        for (const auto& entry: cblock.ssaInfoMap)
2679        {
2680            const SSAInfo& sinfo = entry.second;
2681            auto varMapIt = varMap.find(entry.first);
2682            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2683                flowPos > varMapIt->second.second ||
2684                sinfo.ssaIdBefore != varMapIt->second.first)
2685                continue;
2686            // just connect
2687           
2688            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2689            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2690            const std::vector<size_t>& ssaIdIndices =
2691                        vregIndexMap.find(entry.first)->second;
2692            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2693           
2694            if (flowPos == varMapIt->second.second)
2695            {
2696                // fill whole loop
2697                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2698                {
2699                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2700                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2701                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2702                }
2703                continue;
2704            }
2705           
2706            size_t flowPos2 = 0;
2707            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2708            {
2709                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2710                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2711                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2712            }
2713            // insert liveness for last block in loop of last SSAId (prev round)
2714            auto flit2 = flitStart + flowPos;
2715            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2716            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2717            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2718                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2719            // insert liveness for first block in loop of last SSAId
2720            flit2 = flitStart + (varMapIt->second.second+1);
2721            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2722            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2723            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2724                    toLiveCvt + lastBlk.end);
2725            // fill up loop end
2726            for (++flit2; flit2 != flitEnd; ++flit2)
2727            {
2728                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2729                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2730                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2731            }
2732        }
2733    }
2734}
2735
2736struct LiveBlock
2737{
2738    size_t start;
2739    size_t end;
2740    size_t vidx;
2741   
2742    bool operator==(const LiveBlock& b) const
2743    { return start==b.start && end==b.end && vidx==b.vidx; }
2744   
2745    bool operator<(const LiveBlock& b) const
2746    { return start<b.start || (start==b.start &&
2747            (end<b.end || (end==b.end && vidx<b.vidx))); }
2748};
2749
2750typedef AsmRegAllocator::LinearDep LinearDep;
2751typedef AsmRegAllocator::EqualToDep EqualToDep;
2752typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2753typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2754
2755static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2756            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2757            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2758            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2759            size_t regTypesNum, const cxuint* regRanges)
2760{
2761    // add linear deps
2762    cxuint count = ldeps[0];
2763    cxuint pos = 1;
2764    cxbyte rvuAdded = 0;
2765    for (cxuint i = 0; i < count; i++)
2766    {
2767        cxuint ccount = ldeps[pos++];
2768        std::vector<size_t> vidxes;
2769        cxuint regType = UINT_MAX;
2770        cxbyte align = rvus[ldeps[pos]].align;
2771        for (cxuint j = 0; j < ccount; j++)
2772        {
2773            rvuAdded |= 1U<<ldeps[pos];
2774            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2775            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2776            {
2777                AsmSingleVReg svreg = {rvu.regVar, k};
2778                auto sit = ssaIdIdxMap.find(svreg);
2779                if (regType==UINT_MAX)
2780                    regType = getRegType(regTypesNum, regRanges, svreg);
2781                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2782                const std::vector<size_t>& ssaIdIndices =
2783                            vregIndexMap.find(svreg)->second;
2784                // push variable index
2785                vidxes.push_back(ssaIdIndices[sit->second]);
2786            }
2787        }
2788        ldepsOut[regType][vidxes[0]].align = align;
2789        for (size_t k = 1; k < vidxes.size(); k++)
2790        {
2791            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2792            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2793        }
2794    }
2795    // add single arg linear dependencies
2796    for (cxuint i = 0; i < rvusNum; i++)
2797        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2798        {
2799            const AsmRegVarUsage& rvu = rvus[i];
2800            std::vector<size_t> vidxes;
2801            cxuint regType = UINT_MAX;
2802            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2803            {
2804                AsmSingleVReg svreg = {rvu.regVar, k};
2805                auto sit = ssaIdIdxMap.find(svreg);
2806                if (regType==UINT_MAX)
2807                    regType = getRegType(regTypesNum, regRanges, svreg);
2808                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2809                const std::vector<size_t>& ssaIdIndices =
2810                            vregIndexMap.find(svreg)->second;
2811                // push variable index
2812                vidxes.push_back(ssaIdIndices[sit->second]);
2813            }
2814            for (size_t j = 1; j < vidxes.size(); j++)
2815            {
2816                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2817                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2818            }
2819        }
2820       
2821    /* equalTo dependencies */
2822    count = edeps[0];
2823    pos = 1;
2824    for (cxuint i = 0; i < count; i++)
2825    {
2826        cxuint ccount = edeps[pos++];
2827        std::vector<size_t> vidxes;
2828        cxuint regType = UINT_MAX;
2829        for (cxuint j = 0; j < ccount; j++)
2830        {
2831            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2832            // only one register should be set for equalTo depencencies
2833            // other registers in range will be resolved by linear dependencies
2834            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2835            auto sit = ssaIdIdxMap.find(svreg);
2836            if (regType==UINT_MAX)
2837                regType = getRegType(regTypesNum, regRanges, svreg);
2838            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2839            const std::vector<size_t>& ssaIdIndices =
2840                        vregIndexMap.find(svreg)->second;
2841            // push variable index
2842            vidxes.push_back(ssaIdIndices[sit->second]);
2843        }
2844        for (size_t j = 1; j < vidxes.size(); j++)
2845        {
2846            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2847            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2848        }
2849    }
2850}
2851
2852typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2853
2854struct EqualStackEntry
2855{
2856    EqualToDepMapCIter etoDepIt;
2857    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2858};
2859
2860void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
2861{
2862    // construct var index maps
2863    size_t graphVregsCounts[MAX_REGTYPES_NUM];
2864    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
2865    cxuint regRanges[MAX_REGTYPES_NUM*2];
2866    size_t regTypesNum;
2867    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2868   
2869    for (const CodeBlock& cblock: codeBlocks)
2870        for (const auto& entry: cblock.ssaInfoMap)
2871        {
2872            const SSAInfo& sinfo = entry.second;
2873            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2874            VarIndexMap& vregIndices = vregIndexMaps[regType];
2875            size_t& graphVregsCount = graphVregsCounts[regType];
2876            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2877            size_t ssaIdCount = 0;
2878            if (sinfo.readBeforeWrite)
2879                ssaIdCount = sinfo.ssaIdBefore+1;
2880            if (sinfo.ssaIdChange!=0)
2881            {
2882                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2883                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2884            }
2885            if (ssaIdIndices.size() < ssaIdCount)
2886                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2887           
2888            if (sinfo.readBeforeWrite)
2889                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2890            if (sinfo.ssaIdChange!=0)
2891            {
2892                // fill up ssaIdIndices (with graph Ids)
2893                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2894                for (size_t ssaId = sinfo.ssaId+1;
2895                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2896                    ssaIdIndices[ssaId] = graphVregsCount++;
2897                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2898            }
2899        }
2900   
2901    // construct vreg liveness
2902    std::deque<FlowStackEntry3> flowStack;
2903    std::vector<bool> visited(codeBlocks.size(), false);
2904    // hold last vreg ssaId and position
2905    LastVRegMap lastVRegMap;
2906    // hold start live time position for every code block
2907    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
2908    std::unordered_set<size_t> blockInWay;
2909   
2910    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
2911   
2912    for (size_t i = 0; i < regTypesNum; i++)
2913        livenesses[i].resize(graphVregsCounts[i]);
2914   
2915    size_t curLiveTime = 0;
2916   
2917    while (!flowStack.empty())
2918    {
2919        FlowStackEntry3& entry = flowStack.back();
2920        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2921       
2922        if (entry.nextIndex == 0)
2923        {
2924            // process current block
2925            if (!blockInWay.insert(entry.blockIndex).second)
2926            {
2927                // if loop
2928                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
2929                        livenesses, vregIndexMaps, regTypesNum, regRanges);
2930                flowStack.pop_back();
2931                continue;
2932            }
2933           
2934            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
2935            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
2936                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
2937           
2938            for (const auto& sentry: cblock.ssaInfoMap)
2939            {
2940                const SSAInfo& sinfo = sentry.second;
2941                // update
2942                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2943                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2944                FlowStackCIter flit = flowStack.end();
2945                --flit; // to last position
2946                auto res = lastVRegMap.insert({ sentry.first, 
2947                            { lastSSAId, { flit } } });
2948                if (!res.second) // if not first seen, just update
2949                {
2950                    // update last
2951                    res.first->second.ssaId = lastSSAId;
2952                    res.first->second.blockChain.push_back(flit);
2953                }
2954            }
2955           
2956            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
2957            if (!visited[entry.blockIndex])
2958            {
2959                visited[entry.blockIndex] = true;
2960                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
2961                AsmRegVarUsage instrRVUs[8];
2962                cxuint instrRVUsCount = 0;
2963               
2964                size_t oldOffset = cblock.usagePos.readOffset;
2965                std::vector<AsmSingleVReg> readSVRegs;
2966                std::vector<AsmSingleVReg> writtenSVRegs;
2967               
2968                usageHandler.setReadPos(cblock.usagePos);
2969                // register in liveness
2970                while (true)
2971                {
2972                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
2973                    size_t liveTimeNext = curBlockLiveEnd;
2974                    if (usageHandler.hasNext())
2975                    {
2976                        rvu = usageHandler.nextUsage();
2977                        if (rvu.offset >= cblock.end)
2978                            break;
2979                        if (!rvu.useRegMode)
2980                            instrRVUs[instrRVUsCount++] = rvu;
2981                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2982                                cblock.start + curLiveTime;
2983                    }
2984                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
2985                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
2986                    {
2987                        // apply to liveness
2988                        for (AsmSingleVReg svreg: readSVRegs)
2989                        {
2990                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2991                                    cblock.ssaInfoMap.find(svreg)->second,
2992                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2993                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2994                                lv.newRegion(curLiveTime); // begin region from this block
2995                            lv.expand(liveTime);
2996                        }
2997                        for (AsmSingleVReg svreg: writtenSVRegs)
2998                        {
2999                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
3000                            ssaIdIdx++;
3001                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
3002                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
3003                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
3004                            if (liveTimeNext != curBlockLiveEnd)
3005                                // because live after this instr
3006                                lv.newRegion(liveTimeNext);
3007                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
3008                        }
3009                        // get linear deps and equal to
3010                        cxbyte lDeps[16];
3011                        cxbyte eDeps[16];
3012                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
3013                                        lDeps, eDeps);
3014                       
3015                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
3016                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
3017                                regTypesNum, regRanges);
3018                       
3019                        readSVRegs.clear();
3020                        writtenSVRegs.clear();
3021                        if (!usageHandler.hasNext())
3022                            break; // end
3023                        oldOffset = rvu.offset;
3024                        instrRVUsCount = 0;
3025                    }
3026                    if (rvu.offset >= cblock.end)
3027                        break;
3028                   
3029                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
3030                    {
3031                        // per register/singlvreg
3032                        AsmSingleVReg svreg{ rvu.regVar, rindex };
3033                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
3034                            writtenSVRegs.push_back(svreg);
3035                        else // read or treat as reading // expand previous region
3036                            readSVRegs.push_back(svreg);
3037                    }
3038                }
3039                curLiveTime += cblock.end-cblock.start;
3040            }
3041            else
3042            {
3043                // back, already visited
3044                flowStack.pop_back();
3045                continue;
3046            }
3047        }
3048        if (entry.nextIndex < cblock.nexts.size())
3049        {
3050            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
3051            entry.nextIndex++;
3052        }
3053        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
3054        {
3055            flowStack.push_back({ entry.blockIndex+1, 0 });
3056            entry.nextIndex++;
3057        }
3058        else // back
3059        {
3060            // revert lastSSAIdMap
3061            blockInWay.erase(entry.blockIndex);
3062            flowStack.pop_back();
3063            if (!flowStack.empty())
3064            {
3065                for (const auto& sentry: cblock.ssaInfoMap)
3066                {
3067                    auto lvrit = lastVRegMap.find(sentry.first);
3068                    if (lvrit != lastVRegMap.end())
3069                    {
3070                        VRegLastPos& lastPos = lvrit->second;
3071                        lastPos.ssaId = sentry.second.ssaIdBefore;
3072                        lastPos.blockChain.pop_back();
3073                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
3074                            lastVRegMap.erase(lvrit);
3075                    }
3076                }
3077            }
3078        }
3079    }
3080   
3081    /// construct liveBlockMaps
3082    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
3083    for (size_t regType = 0; regType < regTypesNum; regType++)
3084    {
3085        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3086        std::vector<Liveness>& liveness = livenesses[regType];
3087        for (size_t li = 0; li < liveness.size(); li++)
3088        {
3089            Liveness& lv = liveness[li];
3090            for (const std::pair<size_t, size_t>& blk: lv.l)
3091                if (blk.first != blk.second)
3092                    liveBlockMap.insert({ blk.first, blk.second, li });
3093            lv.clear();
3094        }
3095        liveness.clear();
3096    }
3097   
3098    // create interference graphs
3099    for (size_t regType = 0; regType < regTypesNum; regType++)
3100    {
3101        InterGraph& interGraph = interGraphs[regType];
3102        interGraph.resize(graphVregsCounts[regType]);
3103        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
3104       
3105        auto lit = liveBlockMap.begin();
3106        size_t rangeStart = 0;
3107        if (lit != liveBlockMap.end())
3108            rangeStart = lit->start;
3109        while (lit != liveBlockMap.end())
3110        {
3111            const size_t blkStart = lit->start;
3112            const size_t blkEnd = lit->end;
3113            size_t rangeEnd = blkEnd;
3114            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
3115            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
3116            // collect from this range, variable indices
3117            std::set<size_t> varIndices;
3118            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
3119                varIndices.insert(lit2->vidx);
3120            // push to intergraph as full subgGraph
3121            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
3122                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
3123                    if (vit != vit2)
3124                        interGraph[*vit].insert(*vit2);
3125            // go to next live blocks
3126            rangeStart = rangeEnd;
3127            for (; lit != liveBlockMap.end(); ++lit)
3128                if (lit->start != blkStart && lit->end != blkEnd)
3129                    break;
3130            if (lit == liveBlockMap.end())
3131                break; //
3132            rangeStart = std::max(rangeStart, lit->start);
3133        }
3134    }
3135   
3136    /*
3137     * resolve equalSets
3138     */
3139    for (cxuint regType = 0; regType < regTypesNum; regType++)
3140    {
3141        InterGraph& interGraph = interGraphs[regType];
3142        const size_t nodesNum = interGraph.size();
3143        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
3144        std::vector<bool> visited(nodesNum, false);
3145        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3146       
3147        for (size_t v = 0; v < nodesNum;)
3148        {
3149            auto it = etoDepMap.find(v);
3150            if (it == etoDepMap.end())
3151            {
3152                // is not regvar in equalTo dependencies
3153                v++;
3154                continue;
3155            }
3156           
3157            std::stack<EqualStackEntry> etoStack;
3158            etoStack.push(EqualStackEntry{ it, 0 });
3159           
3160            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3161            const size_t equalSetIndex = equalSetList.size();
3162            equalSetList.push_back(std::vector<size_t>());
3163            std::vector<size_t>& equalSet = equalSetList.back();
3164           
3165            // traverse by this
3166            while (!etoStack.empty())
3167            {
3168                EqualStackEntry& entry = etoStack.top();
3169                size_t vidx = entry.etoDepIt->first; // node index, vreg index
3170                const EqualToDep& eToDep = entry.etoDepIt->second;
3171                if (entry.nextIdx == 0)
3172                {
3173                    if (!visited[vidx])
3174                    {
3175                        // push to this equalSet
3176                        equalSetMap.insert({ vidx, equalSetIndex });
3177                        equalSet.push_back(vidx);
3178                    }
3179                    else
3180                    {
3181                        // already visited
3182                        etoStack.pop();
3183                        continue;
3184                    }
3185                }
3186               
3187                if (entry.nextIdx < eToDep.nextVidxes.size())
3188                {
3189                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
3190                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3191                    entry.nextIdx++;
3192                }
3193                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
3194                {
3195                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
3196                                entry.nextIdx - eToDep.nextVidxes.size()]);
3197                    etoStack.push(EqualStackEntry{ nextIt, 0 });
3198                    entry.nextIdx++;
3199                }
3200                else
3201                    etoStack.pop();
3202            }
3203           
3204            // to first already added node (var)
3205            while (v < nodesNum && !visited[v]) v++;
3206        }
3207    }
3208}
3209
3210typedef AsmRegAllocator::InterGraph InterGraph;
3211
3212struct CLRX_INTERNAL SDOLDOCompare
3213{
3214    const InterGraph& interGraph;
3215    const Array<size_t>& sdoCounts;
3216   
3217    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
3218        : interGraph(_interGraph), sdoCounts(_sdoCounts)
3219    { }
3220   
3221    bool operator()(size_t a, size_t b) const
3222    {
3223        if (sdoCounts[a] > sdoCounts[b])
3224            return true;
3225        return interGraph[a].size() > interGraph[b].size();
3226    }
3227};
3228
3229/* algorithm to allocate regranges:
3230 * from smallest regranges to greatest regranges:
3231 *   choosing free register: from smallest free regranges
3232 *      to greatest regranges:
3233 *         in this same regrange:
3234 *               try to find free regs in regranges
3235 *               try to link free ends of two distinct regranges
3236 */
3237
3238void AsmRegAllocator::colorInterferenceGraph()
3239{
3240    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
3241                    assembler.deviceType);
3242   
3243    for (size_t regType = 0; regType < regTypesNum; regType++)
3244    {
3245        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
3246        InterGraph& interGraph = interGraphs[regType];
3247        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3248        Array<cxuint>& gcMap = graphColorMaps[regType];
3249        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3250        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3251       
3252        const size_t nodesNum = interGraph.size();
3253        gcMap.resize(nodesNum);
3254        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
3255        Array<size_t> sdoCounts(nodesNum);
3256        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
3257       
3258        SDOLDOCompare compare(interGraph, sdoCounts);
3259        std::set<size_t, SDOLDOCompare> nodeSet(compare);
3260        for (size_t i = 0; i < nodesNum; i++)
3261            nodeSet.insert(i);
3262       
3263        cxuint colorsNum = 0;
3264        // firstly, allocate real registers
3265        for (const auto& entry: vregIndexMap)
3266            if (entry.first.regVar == nullptr)
3267                gcMap[entry.second[0]] = colorsNum++;
3268       
3269        for (size_t colored = 0; colored < nodesNum; colored++)
3270        {
3271            size_t node = *nodeSet.begin();
3272            if (gcMap[node] != UINT_MAX)
3273                continue; // already colored
3274            size_t color = 0;
3275            std::vector<size_t> equalNodes;
3276            equalNodes.push_back(node); // only one node, if equalSet not found
3277            auto equalSetMapIt = equalSetMap.find(node);
3278            if (equalSetMapIt != equalSetMap.end())
3279                // found, get equal set from equalSetList
3280                equalNodes = equalSetList[equalSetMapIt->second];
3281           
3282            for (color = 0; color <= colorsNum; color++)
3283            {
3284                // find first usable color
3285                bool thisSame = false;
3286                for (size_t nb: interGraph[node])
3287                    if (gcMap[nb] == color)
3288                    {
3289                        thisSame = true;
3290                        break;
3291                    }
3292                if (!thisSame)
3293                    break;
3294            }
3295            if (color==colorsNum) // add new color if needed
3296            {
3297                if (colorsNum >= maxColorsNum)
3298                    throw AsmException("Too many register is needed");
3299                colorsNum++;
3300            }
3301           
3302            for (size_t nextNode: equalNodes)
3303                gcMap[nextNode] = color;
3304            // update SDO for node
3305            bool colorExists = false;
3306            for (size_t node: equalNodes)
3307            {
3308                for (size_t nb: interGraph[node])
3309                    if (gcMap[nb] == color)
3310                    {
3311                        colorExists = true;
3312                        break;
3313                    }
3314                if (!colorExists)
3315                    sdoCounts[node]++;
3316            }
3317            // update SDO for neighbors
3318            for (size_t node: equalNodes)
3319                for (size_t nb: interGraph[node])
3320                {
3321                    colorExists = false;
3322                    for (size_t nb2: interGraph[nb])
3323                        if (gcMap[nb2] == color)
3324                        {
3325                            colorExists = true;
3326                            break;
3327                        }
3328                    if (!colorExists)
3329                    {
3330                        if (gcMap[nb] == UINT_MAX)
3331                            nodeSet.erase(nb);  // before update we erase from nodeSet
3332                        sdoCounts[nb]++;
3333                        if (gcMap[nb] == UINT_MAX)
3334                            nodeSet.insert(nb); // after update, insert again
3335                    }
3336                }
3337           
3338            for (size_t nextNode: equalNodes)
3339                gcMap[nextNode] = color;
3340        }
3341    }
3342}
3343
3344void AsmRegAllocator::allocateRegisters(cxuint sectionId)
3345{
3346    // before any operation, clear all
3347    codeBlocks.clear();
3348    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
3349    {
3350        vregIndexMaps[i].clear();
3351        interGraphs[i].clear();
3352        linearDepMaps[i].clear();
3353        equalToDepMaps[i].clear();
3354        graphColorMaps[i].clear();
3355        equalSetMaps[i].clear();
3356        equalSetLists[i].clear();
3357    }
3358    ssaReplacesMap.clear();
3359    cxuint maxRegs[MAX_REGTYPES_NUM];
3360    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
3361   
3362    // set up
3363    const AsmSection& section = assembler.sections[sectionId];
3364    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
3365    createSSAData(*section.usageHandler);
3366    applySSAReplaces();
3367    createInterferenceGraph(*section.usageHandler);
3368    colorInterferenceGraph();
3369}
Note: See TracBrowser for help on using the repository browser.